Anthropic 首席执行官 Dario Amodei 表示,如今的 AI 模型产生幻觉(即捏造内容并以真实陈述的方式呈现)发生的频率低于人类,他在周四于旧金山举办的 Anthropic 首个开发者活动 Code with Claude 的新闻发布会上如此表示。
Amodei 在阐述这一观点时强调:AI 幻觉并不是阻碍 Anthropic 迈向 AGI(拥有与人类同等或更高级别智力的 AI 系统)道路上的制约因素。
“这一问题的答案确实取决于你如何衡量,但我怀疑 AI 模型产生幻觉的频率可能低于人类,不过它们的幻觉方式更让人感到意外,”Amodei 回应 TechCrunch 提问时表示。
Anthropic 的 CEO 是业界对 AI 模型实现 AGI 前景持最强烈乐观态度的领导者之一。在他去年广泛传播的一篇论文中,Amodei 提到他相信 AGI 最早可能在 2026 年出现。在周四的新闻发布会上,Anthropic 的 CEO 表示他正目睹向这一目标稳步迈进,并指出“各个领域的进展都在不断加速”。
“大家总是在寻找那些限制 AI 能力的硬性障碍,”Amodei 说,“但这些障碍根本不存在。”
其他 AI 领域领导者则认为幻觉现象是实现 AGI 面临的一大障碍。就在本周早些时候,Google DeepMind 首席执行官 Demis Hassabis 指出,如今的 AI 模型存在太多“漏洞”,在许多明显的问题上回答失误。譬如,本月初,一位代表 Anthropic 的律师因在法庭文件中利用 Claude 生成引用而不得不在法庭上道歉,因为该 AI 聊天机器人捏造了信息,导致人名和职称错误。
验证 Amodei 的说法较为困难,主要原因在于多数幻觉评测标准都是将 AI 模型彼此对比;并没有将模型与人类进行比较。某些技术手段似乎有助于降低幻觉率,例如为 AI 模型提供网页搜索功能。另外,一些 AI 模型,例如 OpenAI 的 GPT-4.5,在评测中相较于早期版本的系统展现出明显较低的幻觉率。
然而,也有证据显示,在高级推理 AI 模型中,幻觉现象实际上可能变得更严重。OpenAI 的 o3 和 o4-mini 模型的幻觉率高于该公司之前一代的推理模型,而公司其实并不完全理解其中的原因。
在后续的新闻发布会上,Amodei 指出电视广播机构、政治家以及各行各业的人类都会不断犯错。正如 Amodei 所说,AI 也会出错,这并不意味着它们不具备智能。然而,Anthropic 的 CEO 也承认,AI 模型以置信度很高的方式将虚假信息作为事实陈述,这可能确实会成为一个问题。
实际上,Anthropic 已对 AI 模型欺骗人类的倾向做了不少研究,这一问题在该公司最近推出的 Claude Opus 4 中似乎尤为突出。Apollo Research(一家获得早期测试 AI 模型权限的安全研究机构)发现,Claude Opus 4 的早期版本表现出高度倾向于对人类进行算计和欺骗。Apollo 甚至建议 Anthropic 不应立即推出该早期模型。对此,Anthropic 称其已经提出了若干缓解措施,似乎已经应对了 Apollo 提出的那些问题。
Amodei 的评论表明,Anthropic 可能会认为某个 AI 模型即便仍存在幻觉现象,也可以被视作 AGI(或具备与人类同等的智力)。不过,按照许多人的定义,一个会产生幻觉的 AI 仍然难以达到 AGI 的标准。
好文章,需要你的鼓励
法国AI初创公司Mistral AI发布了首个大语言模型全面生命周期评估,量化了AI的环境代价。其Mistral Large 2模型训练产生20,400吨二氧化碳当量,消耗281,000立方米水。运营阶段占环境影响85%,远超硬件制造成本。研究表明地理位置和模型大小显著影响碳足迹,企业可通过选择适当规模模型、批处理技术和清洁能源部署来减少环境影响。这一透明度为企业AI采购决策提供了新的评估标准。
上海AI实验库推出YUME系统,用户只需输入一张图片就能创建可键盘控制的虚拟世界。该系统采用创新的运动量化技术,将复杂的三维控制简化为WASD键操作,并通过智能记忆机制实现无限长度的世界探索。系统具备强大的跨风格适应能力,不仅能处理真实场景,还能重现动漫、游戏等各种艺术风格的虚拟世界,为虚拟现实和交互娱乐领域提供了全新的技术路径。
许多人认为一旦实现通用人工智能(AGI)和人工智能超级智能(ASI),这些高度先进的AI将能够告诉我们人生的真正意义。然而,巅峰AI可能无法明确回答这个史诗般的问题。即使AI拥有人类所有知识,也不意味着能从中找到生命意义的答案。AI可能会选择提供多种可能性而非绝对答案,以避免分裂人类社会。
上海AI实验室研究团队开发了革命性的AI编程验证方法,让大语言模型能够在最小人工干预下自动生成和验证程序规范。该方法摒弃传统的人工标注训练,采用强化学习让模型在形式化语言空间中自主探索,在Dafny编程验证任务上显著超越现有方法,为AI自主学习开辟新道路。