Alphabet旗下的Google DeepMind实验室今日发布了第三版前沿安全框架(Frontier Safety Framework),旨在加强对强大人工智能系统的监管,防止这些系统在失控时可能带来的风险。
该框架第三版引入了对操控能力的新关注点,并将安全审查范围扩展到模型可能抵制人类关停或控制的场景。
更新内容的首要亮点是增加了DeepMind所称的"有害操控关键能力等级"。这一等级旨在应对先进模型可能在高风险情境下大规模影响或改变人类信念和行为的可能性。该能力建立在多年来对生成式AI中说服和操控机制的研究基础上,并正式确定了如何在模型达到关键阈值之前测量、监控和缓解此类风险。
更新后的框架还对不对齐和控制挑战给予了更严格的审查,即高能力系统在理论上可能抵制修改或关停的问题。
DeepMind现在要求不仅在外部部署之前进行安全案例审查,还要在模型达到特定关键能力等级阈值后的大规模内部推广中进行审查。这些审查旨在强制团队在发布前证明潜在风险已被充分识别、缓解并判断为可接受。
除了新的风险类别外,更新后的框架还完善了DeepMind定义和应用能力等级的方式。这些改进旨在清楚地区分常规运营关切与最严重的威胁,确保治理机制在正确的时间触发。
前沿安全框架强调,缓解措施必须在系统跨越危险边界之前主动应用,而不是仅在问题出现后被动应对。
Google DeepMind的Four Flynn、Helen King和Anca Dragan在博客文章中表示:"我们前沿安全框架的最新更新体现了我们持续承诺,即采用科学和基于证据的方法来跟踪并领先于AI风险,因为能力正朝着通用人工智能发展。通过扩展我们的风险领域和加强风险评估流程,我们旨在确保变革性AI造福人类,同时最大限度地减少潜在危害。"
作者补充说,DeepMind预计前沿安全框架将随着新研究、部署经验和利益相关者反馈的积累而持续发展。
Q&A
Q1:Google DeepMind前沿安全框架第三版主要更新了什么?
A:第三版框架主要增加了对AI操控能力的关注,设立了"有害操控关键能力等级",并扩展了安全审查范围,覆盖模型可能抵制人类关停或控制的场景。同时完善了能力等级的定义和应用方式。
Q2:什么是有害操控关键能力等级?
A:有害操控关键能力等级是DeepMind新增的安全评估标准,用于应对先进AI模型可能在高风险情境下大规模影响或改变人类信念和行为的风险。它建立在多年来对生成式AI中说服和操控机制的研究基础上。
Q3:前沿安全框架如何确保AI系统的安全性?
A:框架要求在模型外部部署前和达到特定能力阈值的大规模内部推广时都要进行安全案例审查。强调必须在系统跨越危险边界之前主动应用缓解措施,而不是问题出现后被动应对,确保潜在风险被充分识别和缓解。
好文章,需要你的鼓励
在2026年CES展会上,一款名为Sweekar的AI电子宠物亮相,被誉为90年代经典Tamagotchi的完美继承者。这款智能宠物从蛋形开始,随着成长会物理性变大,经历婴儿期、青少年期到成年期的完整生命周期。每个阶段都有不同的护理需求和互动方式,从基础语言学习到形成独特个性。与原版相比,Sweekar融入了先进AI技术,提供更丰富的长期体验。该产品将通过Kickstarter众筹,售价150美元。
瑞士ETH苏黎世联邦理工学院等机构联合开发的WUSH技术,首次从数学理论层面推导出AI大模型量化压缩的最优解。该技术能根据数据特征自适应调整压缩策略,相比传统方法减少60-70%的压缩损失,实现接近零损失的模型压缩,为大模型在普通设备上的高效部署开辟了新路径。
西班牙CTIC RuralTech创新中心运用AI等前沿技术解决农业面临的气候变化等重大挑战。通过气候模拟系统和土地使用智能分析,农户可以监测作物、预测不同种植条件下的结果,如同拥有时光机器。草莓生产商利用模拟器预测疾病影响和气候变化效应,奶酪制造商则用AI分析牛奶数据,确定最适合生产特定奶酪的原料。这些技术应用大幅提高了农业可持续性和效率。
弗吉尼亚大学团队创建了Refer360数据集,这是首个大规模记录真实环境中人机多模态交互的数据库,涵盖室内外场景,包含1400万交互样本。同时开发的MuRes智能模块能让机器人像人类一样理解语言、手势和眼神的组合信息,显著提升了现有AI模型的理解准确度,为未来智能机器人的广泛应用奠定了重要基础。