OpenAI 的 AI 推理研究主管 Noam Brown 表示,如果研究人员当时"掌握正确的方法"和算法,像 OpenAI 的 o1 这样的"推理型" AI 模型本可以提前 20 年出现。
Brown 在周三圣何塞举行的 Nvidia GTC 会议的一个专题讨论会上表示:"这个研究方向被忽视是有多方面原因的。在我的研究过程中,我注意到有些东西被遗漏了。人类在面对困难情况时会花大量时间思考后再行动。这种方式或许在 AI 领域会非常有用。"
Brown 是 o1 AI 模型的主要设计者之一,该模型采用了一种称为测试时推理的技术来在回应查询前进行"思考"。测试时推理涉及对运行中的模型施加额外的计算来驱动一种"推理"形式。总的来说,所谓的推理模型在数学和科学等领域比传统模型更准确、更可靠。
不过,Brown 强调,预训练 —— 即在越来越大的数据集上训练越来越大的模型 —— 并非"已经过时"。根据 Brown 的说法,包括 OpenAI 在内的 AI 实验室曾经将大部分精力投入到扩大预训练规模上。现在,他们在预训练和测试时推理之间分配时间,Brown 将这两种方法描述为互补的。
在讨论会上,有人问 Brown,鉴于学术机构普遍缺乏计算资源,学术界是否还能期望进行与 OpenAI 这样的 AI 实验室同等规模的实验。他承认近年来随着模型变得更加计算密集,这确实变得更具挑战性,但学者们可以通过探索需要较少计算资源的领域来产生影响,比如模型架构设计。
Brown 说:"前沿实验室和学术界之间存在合作机会。前沿实验室确实在关注学术论文,并认真思考,好,如果这个方法进一步扩大规模,它是否会非常有效。如果论文中有令人信服的论据,你知道,我们会在这些实验室中进行研究。"
Brown 的这些评论出现在特朗普政府大幅削减科研拨款的时期。包括诺贝尔奖获得者 Geoffrey Hinton 在内的 AI 专家们批评了这些削减,称这可能会威胁到国内外的 AI 研究工作。
Brown 指出 AI 基准测试是学术界可以产生重大影响的一个领域。他说:"AI 基准测试的现状很糟糕,而做好这项工作并不需要大量计算资源。"
正如我们之前所写的,当今流行的 AI 基准测试往往倾向于测试深奥的知识,且其得分与大多数人关心的任务熟练程度的相关性较低。这导致人们对模型的能力和进步产生了广泛的困惑。
好文章,需要你的鼓励
Y Combinator合伙人Ankit Gupta与Anthropic预训练负责人Nick Joseph最近进行了一次深度对话。
土耳其伊斯坦布尔Newmind AI团队开发出首个专门针对土耳其语的AI幻觉检测系统Turk-LettuceDetect,能够逐字识别AI生成内容中的虚假信息。该系统使用三种不同的AI模型,在包含17790个样本的数据集上训练,最佳模型达到72.66%的检测准确率。这项研究填补了土耳其语AI安全检测的空白,为8000万土耳其语使用者提供了更可靠的AI交互体验。
9月13日的PEC 2025 AI创新者大会暨第二届提示工程峰会上,“年度提问二:新工作时代:AI工作流由谁主导?”从企业实践到技术实现、从业务落地到战略决策,展开了一场高密度的思想碰撞与经验分享,将AI工作流背后的难题和解决路径彻底揭开。
法国研究团队开发了"推理核心"训练环境,专门培养AI的基础推理能力。该系统包含18个核心任务,涵盖逻辑推理、规划、因果分析等领域,能无限生成新题目并精确控制难度。与传统依赖固定题库的方法不同,推理核心专注于培养通用认知能力,并使用专业工具验证答案。GPT-5测试显示任务具有挑战性,为AI推理能力发展开辟新路径。