OpenAI 最近发布的 o3 和 o4-mini AI 模型在许多方面均处于行业前沿。然而,这些新模型仍然存在幻觉现象,即编造信息——实际上,它们的幻觉现象比 OpenAI 早期的多个模型更加频繁。
幻觉问题已被证明是 AI 领域中最大且最难解决的问题之一,即便是在当今表现最好的系统中也存在这一问题。从历史上看,每一代新模型在幻觉问题上都有所改进,幻觉现象的频率较前一代有所降低。但 o3 和 o4-mini 似乎并非如此。
根据 OpenAI 内部测试,作为所谓推理模型的 o3 和 o4-mini 在幻觉方面的表现比该公司之前的推理模型( o1、o1-mini 和 o3-mini )以及 OpenAI 的传统“非推理”模型(例如 GPT-4o )更为严重。
更令人担忧的是,ChatGPT 的开发者实际上并不清楚这种现象发生的原因。
在 o3 和 o4-mini 的技术报告中,OpenAI 写道,“需要更多研究”来理解为何在扩大推理模型规模的过程中幻觉问题变得更为严重。o3 和 o4-mini 在某些领域表现更佳,包括与编码和数学相关的任务。但由于它们“整体上提出了更多主张”,报告中指出,这导致它们既能提出“更多准确的主张”,也会产生“更多不准确/幻觉的主张”。
OpenAI 发现,o3 在 PersonQA 上对 33% 的问题产生幻觉,PersonQA 是该公司内部用于衡量模型对人物知识准确程度的基准测试。这大约是 OpenAI 之前推理模型 o1 和 o3-mini 幻觉率的两倍,它们分别得分为 16% 和 14.8%。o4-mini 在 PersonQA 上表现更差,幻觉率达到了 48%。
由非营利 AI 研究实验室 Transluce 进行的第三方测试也发现了一些证据,显示 o3 在回答问题时有编造其求解过程中所采取的行动的倾向。在一个例子中,Transluce 观察到 o3 声称它在 2021 年的 MacBook Pro 上“在 ChatGPT 之外”运行了代码,然后将运行结果数字复制到答案中。虽然 o3 可以使用一些工具,但它根本无法做到这一点。
Transluce 研究员及前 OpenAI 员工 Neil Chowdhury 在致 TechCrunch 的一封电邮中表示,“我们的假设是,用于 o 系列模型的强化学习可能会放大那些通常通过标准后训练流程得到缓解(但尚未完全消除)的问题。”
Transluce 联合创始人 Sarah Schwettmann 补充说,o3 的幻觉率可能会使其实际应用价值降低。
斯坦福兼职教授以及 upskilling 初创公司 Workera 的 CEO Kian Katanforoosh 告诉 TechCrunch,他的团队已在编码工作流程中测试 o3,并发现其表现超过了竞争对手。然而,Katanforoosh 表示,o3 往往会幻觉出损坏的网站链接,即模型会提供一个点击后无法正常使用的链接。
幻觉现象可能有助于模型在“思考”中产生有趣的想法和创造性,但它们也使得某些模型在那些对准确性要求极高的商业领域难以推广。例如,一家律师事务所很可能不会对在客户合同中插入大量事实错误的模型感到满意。
提高模型准确性的一种有前景的方法是赋予它们网页搜索能力。采用网页搜索功能的 OpenAI GPT-4o 在 SimpleQA 上达到了 90% 的准确率。理论上,搜索功能也有可能改善推理模型的幻觉率——至少在用户愿意将提示暴露给第三方搜索服务提供商的情况下。
如果推理模型规模的扩大真的会继续加剧幻觉问题,那么寻找解决方案的紧迫性将愈加明显。
OpenAI 发言人 Niko Felix 在致 TechCrunch 的一封电邮中表示,“解决我们所有模型中的幻觉问题是一项持续的研究领域,我们也在不断努力提高它们的准确性和可靠性。”
在过去一年中,随着改善传统 AI 模型的方法开始显示出边际效应递减的趋势,整个 AI 行业已转而关注推理模型。推理技术在无需海量计算资源和数据训练的情况下,提升了模型在各种任务中的表现。但看起来推理也可能会导致更多的幻觉现象,这无疑为 AI 发展带来了挑战。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。