来自OpenAI、谷歌DeepMind、Anthropic以及众多公司和非营利组织的AI研究人员在周二发表的一篇立场文件中,呼吁深入研究监控推理模型所谓"思维"的技术。
AI推理模型(如OpenAI的o3和DeepSeek的R1)的一个关键特征是其思维链或CoT——这是一个外化过程,AI模型通过该过程解决问题,类似于人类使用草稿纸来解决困难数学问题的方式。推理模型是驱动AI智能体的核心技术,文件作者认为,随着AI智能体变得更加普及和强大,CoT监控可能是保持其受控的核心方法。
"CoT监控为前沿AI的安全措施提供了宝贵的补充,让我们能够罕见地窥见AI智能体如何做出决策,"研究人员在立场文件中表示。"然而,无法保证当前的可见性程度会持续存在。我们鼓励研究界和前沿AI开发者充分利用CoT监控能力,并研究如何保持这种能力。"
立场文件要求领先的AI模型开发者研究什么使CoT具有"可监控性"——换句话说,哪些因素可以增加或减少对AI模型真正得出答案方式的透明度。文件作者表示,CoT监控可能是理解AI推理模型的关键方法,但也指出这种方法可能很脆弱,警告不要采取任何可能降低其透明度或可靠性的干预措施。
文件作者还呼吁AI模型开发者跟踪CoT监控能力,并研究该方法如何在未来作为安全措施实施。
该文件的知名签署者包括OpenAI首席研究官Mark Chen、Safe Superintelligence CEO Ilya Sutskever、诺贝尔奖获得者Geoffrey Hinton、谷歌DeepMind联合创始人Shane Legg、xAI安全顾问Dan Hendrycks以及Thinking Machines联合创始人John Schulman。第一作者包括来自英国AI安全研究所和Apollo Research的领导者,其他签署者来自METR、亚马逊、Meta和加州大学伯克利分校。
这篇文件标志着AI行业许多领导者在推动AI安全研究方面的团结时刻。这发生在科技公司陷入激烈竞争的时期——Meta以数百万美元的报价从OpenAI、谷歌DeepMind和Anthropic挖走顶级研究人员。最受追捧的研究人员是那些构建AI智能体和AI推理模型的专家。
"我们正处于这个关键时刻,我们有了这个新的思维链技术。它看起来很有用,但如果人们不真正专注于它,它可能在几年内消失,"参与该文件工作的OpenAI研究员Bowen Baker在接受TechCrunch采访时说。"对我来说,发表这样的立场文件是在此之前获得更多研究和关注的机制。"
OpenAI在2024年9月公开发布了第一个AI推理模型o1的预览版。此后几个月,科技行业迅速发布了展示类似能力的竞争产品,来自谷歌DeepMind、xAI和Anthropic的一些模型在基准测试中甚至表现出更先进的性能。
然而,对于AI推理模型如何工作的理解相对较少。虽然AI实验室在过去一年中擅长提高AI的性能,但这并不一定转化为对它们如何得出答案的更好理解。
Anthropic一直是行业中理解AI模型真正工作原理的领导者之一——这个领域被称为可解释性。今年早些时候,CEO Dario Amodei宣布承诺在2027年前破解AI模型的黑盒子,并在可解释性方面投入更多资金。他也呼吁OpenAI和谷歌DeepMind更多地研究这个话题。
Anthropic的早期研究表明,CoT可能不是这些模型得出答案方式的完全可靠指标。与此同时,OpenAI研究人员表示,CoT监控有朝一日可能成为跟踪AI模型对齐和安全性的可靠方式。
像这样的立场文件的目标是提升信号并吸引更多对新兴研究领域(如CoT监控)的关注。OpenAI、谷歌DeepMind和Anthropic等公司已经在研究这些话题,但这篇文件可能会鼓励更多资金和研究投入到这个领域。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。