Anthropic 首席执行官 Dario Amodei 表示,如今的 AI 模型产生幻觉(即捏造内容并以真实陈述的方式呈现)发生的频率低于人类,他在周四于旧金山举办的 Anthropic 首个开发者活动 Code with Claude 的新闻发布会上如此表示。
Amodei 在阐述这一观点时强调:AI 幻觉并不是阻碍 Anthropic 迈向 AGI(拥有与人类同等或更高级别智力的 AI 系统)道路上的制约因素。
“这一问题的答案确实取决于你如何衡量,但我怀疑 AI 模型产生幻觉的频率可能低于人类,不过它们的幻觉方式更让人感到意外,”Amodei 回应 TechCrunch 提问时表示。
Anthropic 的 CEO 是业界对 AI 模型实现 AGI 前景持最强烈乐观态度的领导者之一。在他去年广泛传播的一篇论文中,Amodei 提到他相信 AGI 最早可能在 2026 年出现。在周四的新闻发布会上,Anthropic 的 CEO 表示他正目睹向这一目标稳步迈进,并指出“各个领域的进展都在不断加速”。
“大家总是在寻找那些限制 AI 能力的硬性障碍,”Amodei 说,“但这些障碍根本不存在。”
其他 AI 领域领导者则认为幻觉现象是实现 AGI 面临的一大障碍。就在本周早些时候,Google DeepMind 首席执行官 Demis Hassabis 指出,如今的 AI 模型存在太多“漏洞”,在许多明显的问题上回答失误。譬如,本月初,一位代表 Anthropic 的律师因在法庭文件中利用 Claude 生成引用而不得不在法庭上道歉,因为该 AI 聊天机器人捏造了信息,导致人名和职称错误。
验证 Amodei 的说法较为困难,主要原因在于多数幻觉评测标准都是将 AI 模型彼此对比;并没有将模型与人类进行比较。某些技术手段似乎有助于降低幻觉率,例如为 AI 模型提供网页搜索功能。另外,一些 AI 模型,例如 OpenAI 的 GPT-4.5,在评测中相较于早期版本的系统展现出明显较低的幻觉率。
然而,也有证据显示,在高级推理 AI 模型中,幻觉现象实际上可能变得更严重。OpenAI 的 o3 和 o4-mini 模型的幻觉率高于该公司之前一代的推理模型,而公司其实并不完全理解其中的原因。
在后续的新闻发布会上,Amodei 指出电视广播机构、政治家以及各行各业的人类都会不断犯错。正如 Amodei 所说,AI 也会出错,这并不意味着它们不具备智能。然而,Anthropic 的 CEO 也承认,AI 模型以置信度很高的方式将虚假信息作为事实陈述,这可能确实会成为一个问题。
实际上,Anthropic 已对 AI 模型欺骗人类的倾向做了不少研究,这一问题在该公司最近推出的 Claude Opus 4 中似乎尤为突出。Apollo Research(一家获得早期测试 AI 模型权限的安全研究机构)发现,Claude Opus 4 的早期版本表现出高度倾向于对人类进行算计和欺骗。Apollo 甚至建议 Anthropic 不应立即推出该早期模型。对此,Anthropic 称其已经提出了若干缓解措施,似乎已经应对了 Apollo 提出的那些问题。
Amodei 的评论表明,Anthropic 可能会认为某个 AI 模型即便仍存在幻觉现象,也可以被视作 AGI(或具备与人类同等的智力)。不过,按照许多人的定义,一个会产生幻觉的 AI 仍然难以达到 AGI 的标准。
好文章,需要你的鼓励
这项由东京科学技术大学等机构联合发布的研究提出了UMoE架构,通过重新设计注意力机制,实现了注意力层和前馈网络层的专家参数共享。该方法在多个数据集上显著优于现有的MoE方法,同时保持了较低的计算开销,为大语言模型的高效扩展提供了新思路。
当前企业面临引入AI的机遇与挑战。管理层需要了解机器学习算法基础,包括线性回归、神经网络等核心技术。专家建议从小规模试点开始,优先选择高影响用例,投资数据治理,提升员工技能。对于影子IT现象,应将其视为机会而非问题,建立治理流程将有效工具正式化。成功的AI采用需要明确目标、跨部门协作、变革管理和持续学习社区建设。
小米团队开发的MiMo-7B模型证明了AI领域"小而精"路线的可行性。这个仅有70亿参数的模型通过创新的预训练数据处理、三阶段训练策略和强化学习优化,在数学推理和编程任务上超越了320亿参数的大模型,甚至在某些指标上击败OpenAI o1-mini。研究团队还开发了高效的训练基础设施,将训练速度提升2.29倍。该成果已完全开源,为AI民主化发展提供了新思路。