OpenAI 的 o3 AI 模型在一次基准测试中的得分低于公司最初所宣称的水平
OpenAI 与第三方对于 o3 模型的基准测试结果存在差异,这引发了外界对于公司在透明度及模型测试流程上的质疑。
当 OpenAI 在 12 月份推出 o3 模型时,公司宣称该模型在 FrontierMath(一套具有挑战性的数学题集)上能够正确回答略多于四分之一的问题。这个得分显著领先于竞争对手——下一个最佳模型仅能正确解答大约 2% 的 FrontierMath 题目。
OpenAI 首席研究官 Mark Chen 在一次直播中表示:“目前市面上所有产品在 FrontierMath 上的得分都低于 2%,而我们内部观察到,通过采用 o3 模型在激进的测试时计算设置下,我们能够达到超过 25% 的得分。”
然而,事实证明,这个数字很可能只是一个上界,是由一个使用更多计算资源的 o3 版本在测试中获得的,而这并非 OpenAI 上周公开发布的那一版本所具备的计算能力。
负责 FrontierMath 的研究机构 Epoch AI 于周五发布了对 o3 模型进行独立基准测试的结果。Epoch 的测试显示,o3 模型得分大约为 10%,远低于 OpenAI 声称的最高分数。
OpenAI 已经发布了备受期待的推理模型 o3,同时还推出了继 o3-mini 之后更小且成本更低的 o4-mini 模型。
Epoch 在 Twitter 上写道:“我们在数学和科学基准测试集合上对这些新模型进行了评估,结果已在线程中公布! pic.twitter.com/5gbtzkEy1B” (2025 年 4 月 18 日)。
这并不意味着 OpenAI 本质上是在撒谎。公司在 12 月发布的基准测试结果展示了一个下界得分,这个得分与 Epoch 观察到的分数相吻合。Epoch 还指出,其测试设置很可能与 OpenAI 的有所不同,而且其评估使用了更新版本的 FrontierMath。
Epoch 在报告中写道:“我们与 OpenAI 结果之间的差异,可能是因为 OpenAI 使用了一个更强大的内部测试框架,在测试时动用了更多的计算资源,或是因为这些结果是在 FrontierMath 的不同子集上运行得到的(frontiermath-2024-11-26 中的 180 道题与 frontiermath-2025-02-28-private 中的 290 道题相比)。”
根据 ARC Prize Foundation 在 X 上的一篇博文,该组织曾测试过预发布版的 o3 模型,并指出公开版 o3 “是一个经过调优以适用于聊天/产品场景的不同模型”,这一点与 Epoch 的报告相印证。
ARC Prize 在推文中写道:“所有公布的 o3 计算层级都比我们基准测试的版本要小。”一般来说,计算资源更充足的版本预期能获得更好的基准测试得分。
当然,公开发布的 o3 模型未能达到 OpenAI 测试时所宣称的成绩,这一点实际上无关紧要,因为 OpenAI 的 o3-mini-high 和 o4-mini 模型在 FrontierMath 上的表现均优于 o3,并且 OpenAI 计划在未来几周推出性能更强的 o3 变种——o3-pro。
不过,这再次提醒我们在解读 AI 基准测试时不应只停留在表面,尤其当数据来源于一个手握商业服务的公司时。
随着厂商争相运用新模型争取头条新闻和市场关注,基准测试“争议”在 AI 行业中已日渐常见。
今年一月,Epoch 因在 OpenAI 宣布 o3 后才披露其获得的资金支持而受到批评;许多为 FrontierMath 贡献的学者直到公开报道后才得知 OpenAI 的参与。
最近,Elon Musk 的 xAI 被指控发布了误导性的基准测试图表,用以宣传其最新 AI 模型 Grok 3 的表现;而就在本月,Meta 承认曾宣传过某个模型版本的基准测试得分,而该版本与公司提供给开发者使用的版本不同。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。