来自OpenAI、谷歌DeepMind、Anthropic以及众多公司和非营利组织的AI研究人员在周二发表的一篇立场文件中,呼吁深入研究监控推理模型所谓"思维"的技术。
AI推理模型(如OpenAI的o3和DeepSeek的R1)的一个关键特征是其思维链或CoT——这是一个外化过程,AI模型通过该过程解决问题,类似于人类使用草稿纸来解决困难数学问题的方式。推理模型是驱动AI智能体的核心技术,文件作者认为,随着AI智能体变得更加普及和强大,CoT监控可能是保持其受控的核心方法。
"CoT监控为前沿AI的安全措施提供了宝贵的补充,让我们能够罕见地窥见AI智能体如何做出决策,"研究人员在立场文件中表示。"然而,无法保证当前的可见性程度会持续存在。我们鼓励研究界和前沿AI开发者充分利用CoT监控能力,并研究如何保持这种能力。"
立场文件要求领先的AI模型开发者研究什么使CoT具有"可监控性"——换句话说,哪些因素可以增加或减少对AI模型真正得出答案方式的透明度。文件作者表示,CoT监控可能是理解AI推理模型的关键方法,但也指出这种方法可能很脆弱,警告不要采取任何可能降低其透明度或可靠性的干预措施。
文件作者还呼吁AI模型开发者跟踪CoT监控能力,并研究该方法如何在未来作为安全措施实施。
该文件的知名签署者包括OpenAI首席研究官Mark Chen、Safe Superintelligence CEO Ilya Sutskever、诺贝尔奖获得者Geoffrey Hinton、谷歌DeepMind联合创始人Shane Legg、xAI安全顾问Dan Hendrycks以及Thinking Machines联合创始人John Schulman。第一作者包括来自英国AI安全研究所和Apollo Research的领导者,其他签署者来自METR、亚马逊、Meta和加州大学伯克利分校。
这篇文件标志着AI行业许多领导者在推动AI安全研究方面的团结时刻。这发生在科技公司陷入激烈竞争的时期——Meta以数百万美元的报价从OpenAI、谷歌DeepMind和Anthropic挖走顶级研究人员。最受追捧的研究人员是那些构建AI智能体和AI推理模型的专家。
"我们正处于这个关键时刻,我们有了这个新的思维链技术。它看起来很有用,但如果人们不真正专注于它,它可能在几年内消失,"参与该文件工作的OpenAI研究员Bowen Baker在接受TechCrunch采访时说。"对我来说,发表这样的立场文件是在此之前获得更多研究和关注的机制。"
OpenAI在2024年9月公开发布了第一个AI推理模型o1的预览版。此后几个月,科技行业迅速发布了展示类似能力的竞争产品,来自谷歌DeepMind、xAI和Anthropic的一些模型在基准测试中甚至表现出更先进的性能。
然而,对于AI推理模型如何工作的理解相对较少。虽然AI实验室在过去一年中擅长提高AI的性能,但这并不一定转化为对它们如何得出答案的更好理解。
Anthropic一直是行业中理解AI模型真正工作原理的领导者之一——这个领域被称为可解释性。今年早些时候,CEO Dario Amodei宣布承诺在2027年前破解AI模型的黑盒子,并在可解释性方面投入更多资金。他也呼吁OpenAI和谷歌DeepMind更多地研究这个话题。
Anthropic的早期研究表明,CoT可能不是这些模型得出答案方式的完全可靠指标。与此同时,OpenAI研究人员表示,CoT监控有朝一日可能成为跟踪AI模型对齐和安全性的可靠方式。
像这样的立场文件的目标是提升信号并吸引更多对新兴研究领域(如CoT监控)的关注。OpenAI、谷歌DeepMind和Anthropic等公司已经在研究这些话题,但这篇文件可能会鼓励更多资金和研究投入到这个领域。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。