根据相关报道,美国众议院准备投票拨款30亿美元,用于移除中国电信设备。这一消息引起了广泛关注。这一计划源于2019年美国国会通过的一项法律,该法律要求接受联邦补贴的美国电信运营商清除其网络中的中国电信设备,主要是华为和中兴的产品。这一决定背后的主要动机是出于国家安全考虑,但实施过程却远比想象中复杂。
据美国联邦通信委员会(FCC)透露,在获得联邦支持的美国电信公司中,有近40%需要额外的政府资金来拆除中企制造的设备。设备拆除工作预计耗资高达49.8亿美元,但美国国会目前仅批准了19亿美元用于“拆除和更换”计划。这意味着,即使众议院通过拨款30亿美元,仍然存在约9.8亿美元的资金缺口。
FCC主席杰西卡·罗森沃塞尔多次呼吁国会紧急提供额外资金,并警告说,如果资金不足,参与报销计划的一些运营商可能会被迫关闭网络,这将给美国广大用户带来严重不便。特别是那些服务范围覆盖美国许多农村和偏远地区的电信公司,它们可能是这些地区唯一的移动宽带服务提供商。如果这些网络被关闭,这些地区可能会失去唯一的网络服务。
这一决策不仅涉及高昂的资金投入,还引发了对国家安全的深刻思考。美国政府为了维护自身利益,决定排斥华为、中兴等中国公司的产品,但所面临的挑战和成本也逐渐显露出来。在全球产业链日益紧密的今天,单方面禁用特定厂商的设备不仅仅是技术问题,更是牵一发而动全身的复杂议题。
此外,美国电信公司在拆除和更换设备过程中还面临新设备供应链延迟的问题。许多运营商依赖中国公司的“低成本”设备,而寻找新的设备供应商并非易事。据估计,即使资金到位,实际置换工作预计至少耗时四到五年。
美国此举不仅在国内引发争议,也在国际上引起广泛关注。中方多次对此表示不满,认为美方在没有证据的情况下滥用国家力量打压特定国家和特定企业,违背了市场经济原则。外交部发言人表示,禁止美国运营商购买华为和中兴设备,并不能真正改善美国网络安全状况,反而会对美国农村和欠发达地区的网络服务产生严重影响。
转自:半导体创芯网
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。