OpenAI 最近发布的 o3 和 o4-mini AI 模型在许多方面均处于行业前沿。然而,这些新模型仍然存在幻觉现象,即编造信息——实际上,它们的幻觉现象比 OpenAI 早期的多个模型更加频繁。
幻觉问题已被证明是 AI 领域中最大且最难解决的问题之一,即便是在当今表现最好的系统中也存在这一问题。从历史上看,每一代新模型在幻觉问题上都有所改进,幻觉现象的频率较前一代有所降低。但 o3 和 o4-mini 似乎并非如此。
根据 OpenAI 内部测试,作为所谓推理模型的 o3 和 o4-mini 在幻觉方面的表现比该公司之前的推理模型( o1、o1-mini 和 o3-mini )以及 OpenAI 的传统“非推理”模型(例如 GPT-4o )更为严重。
更令人担忧的是,ChatGPT 的开发者实际上并不清楚这种现象发生的原因。
在 o3 和 o4-mini 的技术报告中,OpenAI 写道,“需要更多研究”来理解为何在扩大推理模型规模的过程中幻觉问题变得更为严重。o3 和 o4-mini 在某些领域表现更佳,包括与编码和数学相关的任务。但由于它们“整体上提出了更多主张”,报告中指出,这导致它们既能提出“更多准确的主张”,也会产生“更多不准确/幻觉的主张”。
OpenAI 发现,o3 在 PersonQA 上对 33% 的问题产生幻觉,PersonQA 是该公司内部用于衡量模型对人物知识准确程度的基准测试。这大约是 OpenAI 之前推理模型 o1 和 o3-mini 幻觉率的两倍,它们分别得分为 16% 和 14.8%。o4-mini 在 PersonQA 上表现更差,幻觉率达到了 48%。
由非营利 AI 研究实验室 Transluce 进行的第三方测试也发现了一些证据,显示 o3 在回答问题时有编造其求解过程中所采取的行动的倾向。在一个例子中,Transluce 观察到 o3 声称它在 2021 年的 MacBook Pro 上“在 ChatGPT 之外”运行了代码,然后将运行结果数字复制到答案中。虽然 o3 可以使用一些工具,但它根本无法做到这一点。
Transluce 研究员及前 OpenAI 员工 Neil Chowdhury 在致 TechCrunch 的一封电邮中表示,“我们的假设是,用于 o 系列模型的强化学习可能会放大那些通常通过标准后训练流程得到缓解(但尚未完全消除)的问题。”
Transluce 联合创始人 Sarah Schwettmann 补充说,o3 的幻觉率可能会使其实际应用价值降低。
斯坦福兼职教授以及 upskilling 初创公司 Workera 的 CEO Kian Katanforoosh 告诉 TechCrunch,他的团队已在编码工作流程中测试 o3,并发现其表现超过了竞争对手。然而,Katanforoosh 表示,o3 往往会幻觉出损坏的网站链接,即模型会提供一个点击后无法正常使用的链接。
幻觉现象可能有助于模型在“思考”中产生有趣的想法和创造性,但它们也使得某些模型在那些对准确性要求极高的商业领域难以推广。例如,一家律师事务所很可能不会对在客户合同中插入大量事实错误的模型感到满意。
提高模型准确性的一种有前景的方法是赋予它们网页搜索能力。采用网页搜索功能的 OpenAI GPT-4o 在 SimpleQA 上达到了 90% 的准确率。理论上,搜索功能也有可能改善推理模型的幻觉率——至少在用户愿意将提示暴露给第三方搜索服务提供商的情况下。
如果推理模型规模的扩大真的会继续加剧幻觉问题,那么寻找解决方案的紧迫性将愈加明显。
OpenAI 发言人 Niko Felix 在致 TechCrunch 的一封电邮中表示,“解决我们所有模型中的幻觉问题是一项持续的研究领域,我们也在不断努力提高它们的准确性和可靠性。”
在过去一年中,随着改善传统 AI 模型的方法开始显示出边际效应递减的趋势,整个 AI 行业已转而关注推理模型。推理技术在无需海量计算资源和数据训练的情况下,提升了模型在各种任务中的表现。但看起来推理也可能会导致更多的幻觉现象,这无疑为 AI 发展带来了挑战。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。