Epoch AI(非盈利 AI 研究机构)的一项分析表明,AI 行业可能无法长期从推理 AI 模型中获得大幅性能提升。报告发现,推理模型的进展可能最快在一年内出现放缓。
例如 OpenAI 的 o3 等推理模型在近几个月内在 AI 基准测试中取得了显著进步,特别是在测评数学和编程技能的测试中。这些模型能够将更多计算资源 (computing) 应用于问题,从而提升性能,但缺点是完成任务所需的时间比传统模型更长。
推理模型的开发流程是先利用海量数据训练一个传统模型,然后应用称为强化学习 (reinforcement learning) 的技术,该技术能有效为模型在解决难题时提供 “反馈” 。
据 Epoch 指出,截至目前,像 OpenAI 这样的前沿 AI 实验室尚未在推理模型训练的强化学习阶段投入大量计算资源。
情况正在改变。OpenAI 表示,在训练 o3 时所使用的计算资源大约是其前身 o1 的 10 倍,Epoch 推测这其中的大部分计算资源都用于了强化学习。OpenAI 研究员 Dan Roberts 最近透露,公司未来计划将强化学习作为优先方向,投入的计算资源将远超初始模型训练所需的量。
不过,据 Epoch 称,在强化学习中可投入的计算资源仍然存在上限。
根据 Epoch AI 的分析,推理模型训练的扩展可能会放缓
图片来源: Epoch AI
Epoch 分析师及该报告作者 Josh You 解释说,传统 AI 模型训练带来的性能提升目前每年大约提升四倍,而强化学习带来的性能增长在 3 到 5 个月内可实现十倍增长。他进一步指出,推理训练的进展 “很可能在 2026 年与前沿水平趋于一致”。
Epoch 的分析基于若干假设,并部分采纳了 AI 公司高管的公开评论。但分析也论证了,推理模型的扩展可能因除计算资源以外的原因而面临挑战,其中包括研究所需的高昂固定成本。
Josh You 写道:“如果研究需要持续的固定开销,推理模型可能无法按照预期大幅扩展。快速扩展计算资源可能是推动推理模型进步的一个非常重要因素,因此值得密切关注。”
任何迹象表明推理模型在不久的将来可能达到某种上限,都可能让已在这类模型研发上投入巨大资源的 AI 行业感到担忧。研究已表明,虽然推理模型的运行成本极高,但它们存在严重缺陷,例如比某些传统模型更容易产生误导性信息。
好文章,需要你的鼓励
据报道,苹果公司高管已就收购Perplexity AI展开内部讨论。这家总部位于旧金山的公司运营着一款由人工智能驱动的消费者搜索引擎,能够生成自然语言回复而非传统网页列表。Perplexity在最近融资中获得140亿美元估值,月活跃用户超过1500万,每月查询量增长20%。苹果企业发展副总裁已与多位高管讨论此收购想法。
斯坦福大学研究团队在2025年提出了首个从语言反馈学习的理论框架,创新性地引入转移消元维度来衡量语言反馈的信息量,并开发了HELiX算法。研究证明语言反馈能带来指数级学习加速,在多个游戏测试中表现优异,为AI学习从简单数值反馈转向丰富语言指导奠定了理论基础,有望推动教育、推荐系统等领域的AI应用革新。
数据中心防护涂层正成为应对能耗上升和温室气体排放的关键解决方案。随着行业快速扩张带来环境挑战,这些创新涂层技术为平衡数字化增长与环境责任提供重要工具。专业涂层可延长设施寿命、降低维护成本,同时通过隔热涂层、反射涂层等技术优化能效,减少冷却系统负担。未来涂层将与被动冷却技术结合,支持可持续发展目标实现。
NVIDIA研究团队揭示了训练AI模型同时掌握数学推理和编程能力的突破性方法。通过精心设计的监督学习和强化学习协同训练,他们发现仅用数学题训练就能显著提升编程能力。研究提出了温度调节、阶段性训练等关键技术,最终的AceReason-Nemotron 1.1模型在多项权威测试中达到业界领先水平,为AI跨领域能力发展提供了新范式。