OpenAI 最近发布的 o3 和 o4-mini AI 模型在许多方面均处于行业前沿。然而,这些新模型仍然存在幻觉现象,即编造信息——实际上,它们的幻觉现象比 OpenAI 早期的多个模型更加频繁。
幻觉问题已被证明是 AI 领域中最大且最难解决的问题之一,即便是在当今表现最好的系统中也存在这一问题。从历史上看,每一代新模型在幻觉问题上都有所改进,幻觉现象的频率较前一代有所降低。但 o3 和 o4-mini 似乎并非如此。
根据 OpenAI 内部测试,作为所谓推理模型的 o3 和 o4-mini 在幻觉方面的表现比该公司之前的推理模型( o1、o1-mini 和 o3-mini )以及 OpenAI 的传统“非推理”模型(例如 GPT-4o )更为严重。
更令人担忧的是,ChatGPT 的开发者实际上并不清楚这种现象发生的原因。
在 o3 和 o4-mini 的技术报告中,OpenAI 写道,“需要更多研究”来理解为何在扩大推理模型规模的过程中幻觉问题变得更为严重。o3 和 o4-mini 在某些领域表现更佳,包括与编码和数学相关的任务。但由于它们“整体上提出了更多主张”,报告中指出,这导致它们既能提出“更多准确的主张”,也会产生“更多不准确/幻觉的主张”。
OpenAI 发现,o3 在 PersonQA 上对 33% 的问题产生幻觉,PersonQA 是该公司内部用于衡量模型对人物知识准确程度的基准测试。这大约是 OpenAI 之前推理模型 o1 和 o3-mini 幻觉率的两倍,它们分别得分为 16% 和 14.8%。o4-mini 在 PersonQA 上表现更差,幻觉率达到了 48%。
由非营利 AI 研究实验室 Transluce 进行的第三方测试也发现了一些证据,显示 o3 在回答问题时有编造其求解过程中所采取的行动的倾向。在一个例子中,Transluce 观察到 o3 声称它在 2021 年的 MacBook Pro 上“在 ChatGPT 之外”运行了代码,然后将运行结果数字复制到答案中。虽然 o3 可以使用一些工具,但它根本无法做到这一点。
Transluce 研究员及前 OpenAI 员工 Neil Chowdhury 在致 TechCrunch 的一封电邮中表示,“我们的假设是,用于 o 系列模型的强化学习可能会放大那些通常通过标准后训练流程得到缓解(但尚未完全消除)的问题。”
Transluce 联合创始人 Sarah Schwettmann 补充说,o3 的幻觉率可能会使其实际应用价值降低。
斯坦福兼职教授以及 upskilling 初创公司 Workera 的 CEO Kian Katanforoosh 告诉 TechCrunch,他的团队已在编码工作流程中测试 o3,并发现其表现超过了竞争对手。然而,Katanforoosh 表示,o3 往往会幻觉出损坏的网站链接,即模型会提供一个点击后无法正常使用的链接。
幻觉现象可能有助于模型在“思考”中产生有趣的想法和创造性,但它们也使得某些模型在那些对准确性要求极高的商业领域难以推广。例如,一家律师事务所很可能不会对在客户合同中插入大量事实错误的模型感到满意。
提高模型准确性的一种有前景的方法是赋予它们网页搜索能力。采用网页搜索功能的 OpenAI GPT-4o 在 SimpleQA 上达到了 90% 的准确率。理论上,搜索功能也有可能改善推理模型的幻觉率——至少在用户愿意将提示暴露给第三方搜索服务提供商的情况下。
如果推理模型规模的扩大真的会继续加剧幻觉问题,那么寻找解决方案的紧迫性将愈加明显。
OpenAI 发言人 Niko Felix 在致 TechCrunch 的一封电邮中表示,“解决我们所有模型中的幻觉问题是一项持续的研究领域,我们也在不断努力提高它们的准确性和可靠性。”
在过去一年中,随着改善传统 AI 模型的方法开始显示出边际效应递减的趋势,整个 AI 行业已转而关注推理模型。推理技术在无需海量计算资源和数据训练的情况下,提升了模型在各种任务中的表现。但看起来推理也可能会导致更多的幻觉现象,这无疑为 AI 发展带来了挑战。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。