OpenAI 的 AI 推理研究主管 Noam Brown 表示,如果研究人员当时"掌握正确的方法"和算法,像 OpenAI 的 o1 这样的"推理型" AI 模型本可以提前 20 年出现。
Brown 在周三圣何塞举行的 Nvidia GTC 会议的一个专题讨论会上表示:"这个研究方向被忽视是有多方面原因的。在我的研究过程中,我注意到有些东西被遗漏了。人类在面对困难情况时会花大量时间思考后再行动。这种方式或许在 AI 领域会非常有用。"
Brown 是 o1 AI 模型的主要设计者之一,该模型采用了一种称为测试时推理的技术来在回应查询前进行"思考"。测试时推理涉及对运行中的模型施加额外的计算来驱动一种"推理"形式。总的来说,所谓的推理模型在数学和科学等领域比传统模型更准确、更可靠。
不过,Brown 强调,预训练 —— 即在越来越大的数据集上训练越来越大的模型 —— 并非"已经过时"。根据 Brown 的说法,包括 OpenAI 在内的 AI 实验室曾经将大部分精力投入到扩大预训练规模上。现在,他们在预训练和测试时推理之间分配时间,Brown 将这两种方法描述为互补的。
在讨论会上,有人问 Brown,鉴于学术机构普遍缺乏计算资源,学术界是否还能期望进行与 OpenAI 这样的 AI 实验室同等规模的实验。他承认近年来随着模型变得更加计算密集,这确实变得更具挑战性,但学者们可以通过探索需要较少计算资源的领域来产生影响,比如模型架构设计。
Brown 说:"前沿实验室和学术界之间存在合作机会。前沿实验室确实在关注学术论文,并认真思考,好,如果这个方法进一步扩大规模,它是否会非常有效。如果论文中有令人信服的论据,你知道,我们会在这些实验室中进行研究。"
Brown 的这些评论出现在特朗普政府大幅削减科研拨款的时期。包括诺贝尔奖获得者 Geoffrey Hinton 在内的 AI 专家们批评了这些削减,称这可能会威胁到国内外的 AI 研究工作。
Brown 指出 AI 基准测试是学术界可以产生重大影响的一个领域。他说:"AI 基准测试的现状很糟糕,而做好这项工作并不需要大量计算资源。"
正如我们之前所写的,当今流行的 AI 基准测试往往倾向于测试深奥的知识,且其得分与大多数人关心的任务熟练程度的相关性较低。这导致人们对模型的能力和进步产生了广泛的困惑。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。