OpenAI 的 AI 推理研究主管 Noam Brown 表示,如果研究人员当时"掌握正确的方法"和算法,像 OpenAI 的 o1 这样的"推理型" AI 模型本可以提前 20 年出现。
Brown 在周三圣何塞举行的 Nvidia GTC 会议的一个专题讨论会上表示:"这个研究方向被忽视是有多方面原因的。在我的研究过程中,我注意到有些东西被遗漏了。人类在面对困难情况时会花大量时间思考后再行动。这种方式或许在 AI 领域会非常有用。"
Brown 是 o1 AI 模型的主要设计者之一,该模型采用了一种称为测试时推理的技术来在回应查询前进行"思考"。测试时推理涉及对运行中的模型施加额外的计算来驱动一种"推理"形式。总的来说,所谓的推理模型在数学和科学等领域比传统模型更准确、更可靠。
不过,Brown 强调,预训练 —— 即在越来越大的数据集上训练越来越大的模型 —— 并非"已经过时"。根据 Brown 的说法,包括 OpenAI 在内的 AI 实验室曾经将大部分精力投入到扩大预训练规模上。现在,他们在预训练和测试时推理之间分配时间,Brown 将这两种方法描述为互补的。
在讨论会上,有人问 Brown,鉴于学术机构普遍缺乏计算资源,学术界是否还能期望进行与 OpenAI 这样的 AI 实验室同等规模的实验。他承认近年来随着模型变得更加计算密集,这确实变得更具挑战性,但学者们可以通过探索需要较少计算资源的领域来产生影响,比如模型架构设计。
Brown 说:"前沿实验室和学术界之间存在合作机会。前沿实验室确实在关注学术论文,并认真思考,好,如果这个方法进一步扩大规模,它是否会非常有效。如果论文中有令人信服的论据,你知道,我们会在这些实验室中进行研究。"
Brown 的这些评论出现在特朗普政府大幅削减科研拨款的时期。包括诺贝尔奖获得者 Geoffrey Hinton 在内的 AI 专家们批评了这些削减,称这可能会威胁到国内外的 AI 研究工作。
Brown 指出 AI 基准测试是学术界可以产生重大影响的一个领域。他说:"AI 基准测试的现状很糟糕,而做好这项工作并不需要大量计算资源。"
正如我们之前所写的,当今流行的 AI 基准测试往往倾向于测试深奥的知识,且其得分与大多数人关心的任务熟练程度的相关性较低。这导致人们对模型的能力和进步产生了广泛的困惑。
好文章,需要你的鼓励
AI颠覆预计将在2026年持续,推动企业适应不断演进的技术并扩大规模。国际奥委会、Moderna和Sportradar的领导者在纽约路透社峰会上分享了他们的AI策略。讨论焦点包括自建AI与购买第三方资源的选择,AI在内部流程优化和外部产品开发中的应用,以及小型模型在日常应用中的潜力。专家建议,企业应将AI建设融入企业文化,以创新而非成本节约为驱动力。
字节跳动等机构联合发布GAR技术,让AI能同时理解图像的全局和局部信息,实现对多个区域间复杂关系的准确分析。该技术通过RoI对齐特征重放方法,在保持全局视野的同时提取精确细节,在多项测试中表现出色,甚至在某些指标上超越了体积更大的模型,为AI视觉理解能力带来重要突破。
Spotify在新西兰测试推出AI提示播放列表功能,用户可通过文字描述需求让AI根据指令和听歌历史生成个性化播放列表。该功能允许用户设置定期刷新,相当于创建可控制算法的每周发现播放列表。这是Spotify赋予用户更多控制权努力的一部分,此前其AI DJ功能也增加了语音提示选项,反映了各平台让用户更好控制算法推荐的趋势。
Inclusion AI团队推出首个开源万亿参数思维模型Ring-1T,通过IcePop、C3PO++和ASystem三项核心技术突破,解决了超大规模强化学习训练的稳定性和效率难题。该模型在AIME-2025获得93.4分,IMO-2025达到银牌水平,CodeForces获得2088分,展现出卓越的数学推理和编程能力,为AI推理能力发展树立了新的里程碑。