OpenAI 的 AI 推理研究主管 Noam Brown 表示,如果研究人员当时"掌握正确的方法"和算法,像 OpenAI 的 o1 这样的"推理型" AI 模型本可以提前 20 年出现。
Brown 在周三圣何塞举行的 Nvidia GTC 会议的一个专题讨论会上表示:"这个研究方向被忽视是有多方面原因的。在我的研究过程中,我注意到有些东西被遗漏了。人类在面对困难情况时会花大量时间思考后再行动。这种方式或许在 AI 领域会非常有用。"
Brown 是 o1 AI 模型的主要设计者之一,该模型采用了一种称为测试时推理的技术来在回应查询前进行"思考"。测试时推理涉及对运行中的模型施加额外的计算来驱动一种"推理"形式。总的来说,所谓的推理模型在数学和科学等领域比传统模型更准确、更可靠。
不过,Brown 强调,预训练 —— 即在越来越大的数据集上训练越来越大的模型 —— 并非"已经过时"。根据 Brown 的说法,包括 OpenAI 在内的 AI 实验室曾经将大部分精力投入到扩大预训练规模上。现在,他们在预训练和测试时推理之间分配时间,Brown 将这两种方法描述为互补的。
在讨论会上,有人问 Brown,鉴于学术机构普遍缺乏计算资源,学术界是否还能期望进行与 OpenAI 这样的 AI 实验室同等规模的实验。他承认近年来随着模型变得更加计算密集,这确实变得更具挑战性,但学者们可以通过探索需要较少计算资源的领域来产生影响,比如模型架构设计。
Brown 说:"前沿实验室和学术界之间存在合作机会。前沿实验室确实在关注学术论文,并认真思考,好,如果这个方法进一步扩大规模,它是否会非常有效。如果论文中有令人信服的论据,你知道,我们会在这些实验室中进行研究。"
Brown 的这些评论出现在特朗普政府大幅削减科研拨款的时期。包括诺贝尔奖获得者 Geoffrey Hinton 在内的 AI 专家们批评了这些削减,称这可能会威胁到国内外的 AI 研究工作。
Brown 指出 AI 基准测试是学术界可以产生重大影响的一个领域。他说:"AI 基准测试的现状很糟糕,而做好这项工作并不需要大量计算资源。"
正如我们之前所写的,当今流行的 AI 基准测试往往倾向于测试深奥的知识,且其得分与大多数人关心的任务熟练程度的相关性较低。这导致人们对模型的能力和进步产生了广泛的困惑。
好文章,需要你的鼓励
Dell技术团队在构建笔记本电脑物理损伤识别模型时,遭遇了AI幻觉、垃圾图像检测和输出不稳定等问题。项目从单体提示开始,尝试了多模态方法,最终创新性地将智能体框架应用于图像解释任务。通过组合精确的智能体检测、广泛的单体扫描和针对性微调,构建了可靠的混合系统,显著减少了幻觉问题并提高了检测准确性。
北航团队发布AnimaX技术,能够根据文字描述让静态3D模型自动生成动画。该系统支持人形角色、动物、家具等各类模型,仅需6分钟即可完成高质量动画生成,效率远超传统方法。通过多视角视频-姿态联合扩散模型,AnimaX有效结合了视频AI的运动理解能力与骨骼动画的精确控制,在16万动画序列数据集上训练后展现出卓越性能。
企业在关键应用中部署AI代理人面临挑战,Mixus平台推出"同事在环"模式应对。研究显示当前AI代理人单步任务成功率仅58%,多步任务仅35%。该模式将人工监督嵌入自动化工作流程,对高风险决策要求人工审批。通过整合Google Drive、Slack等工具,让AI处理90-95%常规任务,人工专注于5-10%的关键决策,实现效率与可靠性平衡。
这项研究解决了AI图片描述中的两大难题:描述不平衡和内容虚构。通过创新的"侦探式追问"方法,让AI能生成更详细准确的图片描述,显著提升了多个AI系统的性能表现,为无障碍技术、教育、电商等领域带来实用价值。