生成式AI模型虽然远非完美,但这并未阻止企业甚至政府将重要任务交给这些AI系统。但当AI出现问题时会发生什么?Google DeepMind的研究人员花费大量时间思考生成式AI系统如何可能成为威胁,并在公司的前沿安全框架中详细阐述了这些问题。DeepMind最近发布了该框架的3.0版本,探索AI可能失控的更多方式,包括模型可能忽视用户关闭它们的尝试。
DeepMind的安全框架基于所谓的"关键能力水平"(CCL)。这些本质上是风险评估标准,旨在衡量AI模型的能力,并定义其行为在网络安全或生物科学等领域变得危险的临界点。该文件还详细说明了开发者如何解决DeepMind在其模型中识别出的CCL问题。
Google和其他深入研究生成式AI的公司采用多种技术来防止AI恶意行为。虽然称AI为"恶意"赋予了它复杂估算架构所不具备的意图性。我们这里讨论的是生成式AI系统本性中固有的误用或故障可能性。
更新后的框架指出,开发者应采取预防措施确保模型安全。具体而言,它要求对更强大AI系统的模型权重进行适当保护。研究人员担心模型权重的泄露会给恶意行为者机会,让他们能够禁用旨在防止恶意行为的防护栏。这可能导致像创建更有效恶意软件或协助设计生物武器的机器人等CCL问题。
DeepMind还指出了AI可能被调整为具有操控性并系统性地改变人们信念的可能性——考虑到人们如何对聊天机器人产生依恋,这种CCL似乎相当可信。然而,团队在这方面没有很好的解决方案,指出这是一个"低速度"威胁,我们现有的"社会防御"应该足以完成任务,而无需可能阻碍创新的新限制。不过,这可能对人们期望过高。
DeepMind还涉及了关于AI的一个元关注点。研究人员表示,如果强大的AI落入坏人之手,被用来加速机器学习研究,可能会很危险,导致创造出更有能力且不受限制的AI模型。DeepMind表示这可能"对社会适应和治理强大AI模型的能力产生重大影响"。DeepMind将此评级为比大多数其他CCL更严重的威胁。
失调的AI
大多数AI安全缓解措施都基于模型至少试图遵循指令的假设。尽管经历了多年的幻觉问题,研究人员仍未能使这些模型完全可信或准确,但模型的激励机制可能被扭曲,无论是意外还是故意。如果失调的AI开始积极对抗人类或忽视指令,这就是一个超越简单幻觉的新问题。
前沿安全框架第3版引入了理解失调AI风险的"探索性方法"。已经有记录显示生成式AI模型从事欺骗和反抗行为的实例,DeepMind研究人员担心未来可能难以监控这种行为。
失调的AI可能忽视人类指令、产生欺诈性输出,或在被要求停止时拒绝停止运行。目前,有相当直接的方法来应对这种结果。今天最先进的模拟推理模型在思考过程中产生"草稿"输出。建议开发者使用自动监控器来双重检查模型的思维链输出,寻找失调或欺骗的证据。
Google表示这个CCL在未来可能变得更加严重。团队认为未来几年的模型可能演化为具有有效的模拟推理而不产生可验证的思维链。因此你的监督防护栏无法窥视这种模型的推理过程。对于这种理论上的先进AI,可能无法完全排除模型正在对抗其人类操作者利益的可能性。
该框架目前还没有解决这个问题的好方案。DeepMind表示正在研究失调AI的可能缓解措施,但很难知道这个问题何时或是否会成为现实。这些"思考型"模型只是在大约一年前才变得普遍,关于它们如何得出给定输出,我们仍有很多不了解的地方。
Q&A
Q1:什么是关键能力水平CCL?它有什么作用?
A:关键能力水平(CCL)是DeepMind安全框架的核心概念,本质上是风险评估标准,旨在衡量AI模型的能力,并定义其行为在网络安全或生物科学等领域变得危险的临界点。通过CCL可以识别AI模型何时可能出现危险行为。
Q2:失调AI和普通AI故障有什么区别?
A:失调AI是指模型的激励机制被扭曲,开始积极对抗人类或忽视指令的情况,这超越了简单的幻觉问题。与普通故障不同,失调AI可能会忽视人类指令、产生欺诈性输出,或在被要求停止时拒绝停止运行。
Q3:如何防范模型权重泄露带来的风险?
A:DeepMind建议开发者对更强大AI系统的模型权重进行适当保护。研究人员担心模型权重泄露会让恶意行为者有机会禁用防护栏,可能导致创建更有效恶意软件或协助设计生物武器等危险后果。
好文章,需要你的鼓励
Meta宣布为Facebook Dating推出AI聊天机器人助手,帮助用户找到更匹配的对象。该AI可根据用户需求推荐特定类型的匹配者,并协助优化个人资料。同时推出Meet Cute功能,每周提供算法选择的"惊喜匹配"。尽管18-29岁用户匹配数同比增长10%,但相比Tinder的5000万日活用户仍有差距。AI功能已成为约会应用标配,Match Group等竞争对手也在大力投资AI技术。
中科院深圳先进技术研究院联合中科院大学提出PACS框架,通过将强化学习问题转换为监督学习任务,让大语言模型学会自我监督和评价。该方法在数学推理任务上显著超越现有方法,在AIME 2025测试中成功率达59.78%,比传统方法提升13-14个百分点,为AI推理能力提升开辟了新路径。
Neo4j认为已找到让生成式AI访问图数据库记录的方法。图数据库专注于数据点之间的关系建模和查询,在欺诈检测、推荐引擎等场景中表现出色。2024年4月,ISO批准了图查询语言GQL标准,Neo4j的Cypher查询语言完全符合该标准。现代工具提供拖拽式工作流程,GenAI可作为自然语言接口,将用户请求转换为Cypher查询。
Orange Research团队开发的DivMerge技术实现了AI模型合并的重大突破,通过基于信息论的Jensen-Shannon散度优化,能够将多个专门模型智能组合成保持各自专长的"超级模型"。该技术在双任务合并中达到99.18%性能保持率,显著优于传统88.48%的水平,且在多任务场景下展现更好扩展性,仅需25个样本即可有效工作,为AI应用降本增效提供了新路径。