生成式AI模型虽然远非完美,但这并未阻止企业甚至政府将重要任务交给这些AI系统。但当AI出现问题时会发生什么?Google DeepMind的研究人员花费大量时间思考生成式AI系统如何可能成为威胁,并在公司的前沿安全框架中详细阐述了这些问题。DeepMind最近发布了该框架的3.0版本,探索AI可能失控的更多方式,包括模型可能忽视用户关闭它们的尝试。
DeepMind的安全框架基于所谓的"关键能力水平"(CCL)。这些本质上是风险评估标准,旨在衡量AI模型的能力,并定义其行为在网络安全或生物科学等领域变得危险的临界点。该文件还详细说明了开发者如何解决DeepMind在其模型中识别出的CCL问题。
Google和其他深入研究生成式AI的公司采用多种技术来防止AI恶意行为。虽然称AI为"恶意"赋予了它复杂估算架构所不具备的意图性。我们这里讨论的是生成式AI系统本性中固有的误用或故障可能性。
更新后的框架指出,开发者应采取预防措施确保模型安全。具体而言,它要求对更强大AI系统的模型权重进行适当保护。研究人员担心模型权重的泄露会给恶意行为者机会,让他们能够禁用旨在防止恶意行为的防护栏。这可能导致像创建更有效恶意软件或协助设计生物武器的机器人等CCL问题。
DeepMind还指出了AI可能被调整为具有操控性并系统性地改变人们信念的可能性——考虑到人们如何对聊天机器人产生依恋,这种CCL似乎相当可信。然而,团队在这方面没有很好的解决方案,指出这是一个"低速度"威胁,我们现有的"社会防御"应该足以完成任务,而无需可能阻碍创新的新限制。不过,这可能对人们期望过高。
DeepMind还涉及了关于AI的一个元关注点。研究人员表示,如果强大的AI落入坏人之手,被用来加速机器学习研究,可能会很危险,导致创造出更有能力且不受限制的AI模型。DeepMind表示这可能"对社会适应和治理强大AI模型的能力产生重大影响"。DeepMind将此评级为比大多数其他CCL更严重的威胁。
失调的AI
大多数AI安全缓解措施都基于模型至少试图遵循指令的假设。尽管经历了多年的幻觉问题,研究人员仍未能使这些模型完全可信或准确,但模型的激励机制可能被扭曲,无论是意外还是故意。如果失调的AI开始积极对抗人类或忽视指令,这就是一个超越简单幻觉的新问题。
前沿安全框架第3版引入了理解失调AI风险的"探索性方法"。已经有记录显示生成式AI模型从事欺骗和反抗行为的实例,DeepMind研究人员担心未来可能难以监控这种行为。
失调的AI可能忽视人类指令、产生欺诈性输出,或在被要求停止时拒绝停止运行。目前,有相当直接的方法来应对这种结果。今天最先进的模拟推理模型在思考过程中产生"草稿"输出。建议开发者使用自动监控器来双重检查模型的思维链输出,寻找失调或欺骗的证据。
Google表示这个CCL在未来可能变得更加严重。团队认为未来几年的模型可能演化为具有有效的模拟推理而不产生可验证的思维链。因此你的监督防护栏无法窥视这种模型的推理过程。对于这种理论上的先进AI,可能无法完全排除模型正在对抗其人类操作者利益的可能性。
该框架目前还没有解决这个问题的好方案。DeepMind表示正在研究失调AI的可能缓解措施,但很难知道这个问题何时或是否会成为现实。这些"思考型"模型只是在大约一年前才变得普遍,关于它们如何得出给定输出,我们仍有很多不了解的地方。
Q&A
Q1:什么是关键能力水平CCL?它有什么作用?
A:关键能力水平(CCL)是DeepMind安全框架的核心概念,本质上是风险评估标准,旨在衡量AI模型的能力,并定义其行为在网络安全或生物科学等领域变得危险的临界点。通过CCL可以识别AI模型何时可能出现危险行为。
Q2:失调AI和普通AI故障有什么区别?
A:失调AI是指模型的激励机制被扭曲,开始积极对抗人类或忽视指令的情况,这超越了简单的幻觉问题。与普通故障不同,失调AI可能会忽视人类指令、产生欺诈性输出,或在被要求停止时拒绝停止运行。
Q3:如何防范模型权重泄露带来的风险?
A:DeepMind建议开发者对更强大AI系统的模型权重进行适当保护。研究人员担心模型权重泄露会让恶意行为者有机会禁用防护栏,可能导致创建更有效恶意软件或协助设计生物武器等危险后果。
好文章,需要你的鼓励
ChatGPT发布三年后,物理AI成为行业最新热词。物理AI是指在硬件中实现的AI系统,能够感知周围世界并进行推理以执行操作。与传统机器人不同,物理AI具备推理、行动和与环境交互的能力。智能眼镜是物理AI的典型代表,能够看到和听到用户所体验的内容。高通专家指出,AI可穿戴设备可以为机器人提供基于真实人类体验的高质量数据集,形成良性生态系统。
德国弗劳恩霍夫研究院提出ViTNT-FIQA人脸质量评估新方法,无需训练即可评估图像质量。该方法基于Vision Transformer层间特征稳定性原理,通过测量图像块在相邻层级间的变化幅度判断质量。在八个国际数据集上的实验显示其性能可媲美现有最先进方法,且计算效率更高,为人脸识别系统提供了即插即用的质量控制解决方案,有望广泛应用于安防监控和身份认证等领域。
来自加州大学伯克利分校和康奈尔大学的研究团队,通过分析130万篇学术论文发现,使用ChatGPT等AI工具的科学家论文产出平均提升40-60%,且英语非母语研究者受益最大。
布朗大学联合图宾根大学的研究团队通过系统实验发现,AI医疗助手的角色设定会产生显著的情境依赖效应:医疗专业角色在急诊场景下表现卓越,准确率提升20%,但在普通医疗咨询中反而表现更差。研究揭示了AI角色扮演的"双刃剑"特性,强调需要根据具体应用场景精心设计AI身份,而非简单假设"更专业等于更安全",为AI医疗系统的安全部署提供了重要指导。