OpenAI 的 AI 推理研究主管 Noam Brown 表示,如果研究人员当时"掌握正确的方法"和算法,像 OpenAI 的 o1 这样的"推理型" AI 模型本可以提前 20 年出现。
Brown 在周三圣何塞举行的 Nvidia GTC 会议的一个专题讨论会上表示:"这个研究方向被忽视是有多方面原因的。在我的研究过程中,我注意到有些东西被遗漏了。人类在面对困难情况时会花大量时间思考后再行动。这种方式或许在 AI 领域会非常有用。"
Brown 是 o1 AI 模型的主要设计者之一,该模型采用了一种称为测试时推理的技术来在回应查询前进行"思考"。测试时推理涉及对运行中的模型施加额外的计算来驱动一种"推理"形式。总的来说,所谓的推理模型在数学和科学等领域比传统模型更准确、更可靠。
不过,Brown 强调,预训练 —— 即在越来越大的数据集上训练越来越大的模型 —— 并非"已经过时"。根据 Brown 的说法,包括 OpenAI 在内的 AI 实验室曾经将大部分精力投入到扩大预训练规模上。现在,他们在预训练和测试时推理之间分配时间,Brown 将这两种方法描述为互补的。
在讨论会上,有人问 Brown,鉴于学术机构普遍缺乏计算资源,学术界是否还能期望进行与 OpenAI 这样的 AI 实验室同等规模的实验。他承认近年来随着模型变得更加计算密集,这确实变得更具挑战性,但学者们可以通过探索需要较少计算资源的领域来产生影响,比如模型架构设计。
Brown 说:"前沿实验室和学术界之间存在合作机会。前沿实验室确实在关注学术论文,并认真思考,好,如果这个方法进一步扩大规模,它是否会非常有效。如果论文中有令人信服的论据,你知道,我们会在这些实验室中进行研究。"
Brown 的这些评论出现在特朗普政府大幅削减科研拨款的时期。包括诺贝尔奖获得者 Geoffrey Hinton 在内的 AI 专家们批评了这些削减,称这可能会威胁到国内外的 AI 研究工作。
Brown 指出 AI 基准测试是学术界可以产生重大影响的一个领域。他说:"AI 基准测试的现状很糟糕,而做好这项工作并不需要大量计算资源。"
正如我们之前所写的,当今流行的 AI 基准测试往往倾向于测试深奥的知识,且其得分与大多数人关心的任务熟练程度的相关性较低。这导致人们对模型的能力和进步产生了广泛的困惑。
好文章,需要你的鼓励
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
医疗信息管理平台Predoc宣布获得3000万美元新融资,用于扩大运营规模并在肿瘤科、研究网络和虚拟医疗提供商中推广应用。该公司成立于2022年,利用人工智能技术提供端到端平台服务,自动化病历检索并整合为可操作的临床洞察。平台可实现病历检索速度提升75%,临床审查时间减少70%,旨在增强而非替代临床判断。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。