AI安全监管亟待加强,头部科技公司评分不及格

未来生命研究所最新发布的AI安全指数显示,大型科技公司在AI安全方面表现不佳,最高仅获得C+评级。该指数评估了包括Anthropic、谷歌、Meta、OpenAI等六家主要AI实验室的透明度、技术保障和治理实践。最令人担忧的是,没有一家公司在"存在性安全"类别中获得及格分数,均无法提出可信的超级智能系统控制方案。研究表明AI能力提升速度远超安全保障发展。

根据未来生命研究所上周发布的最新AI安全指数报告,在保护我们免受AI风险方面,大型科技公司表现不佳,充其量只是C等水平。该指数从透明度、技术保障、治理实践以及减轻存在性风险的准备程度等方面,对世界主要前沿AI实验室进行评分。

该指数既是成绩单,也是公众反馈工具,在政府监管跟上步伐之前,通过独立审查施加压力。

"这样做的目的不是为了羞辱任何人,"麻省理工学院物理学家、未来生命研究所联合创始人Max Tegmark表示,"而是为公司提供改进的激励。"

Tegmark希望在监管能够放缓这场竞赛之前,该指数将创造公司无法忽视的公众压力,就像大学无法忽视《美国新闻与世界报道》的排名一样。

但他承认,在没有约束性标准的情况下,没有公司愿意放慢脚步。他认为,如果有严格的监管,竞争激励将会逆转:谁先通过安全标准,谁就能先部署。

关键时刻的评分卡

2024年指数评估了六家公司——Anthropic、谷歌DeepMind、Meta、OpenAI、xAI和中国的智谱AI——涵盖六个类别:风险评估、当前危害、安全框架、存在性安全策略、治理与问责、透明度与沟通。评分系统采用美国GPA量表。

在去年的指数中,Anthropic获得最高总分:C等。其他公司分布在下方:谷歌DeepMind、OpenAI、xAI和智谱AI聚集在D等范围。Meta获得F等。

最新的2025年冬季版本显示有所改善,Anthropic从C等上升到C+等。OpenAI和谷歌DeepMind也取得显著进步,主要凭借扩展的文档资料,从D等范围升至C+等和C等。

然而,其余公司——包括xAI、Meta和智谱AI——仍然聚集在D等范围,进步有限。

该指数现在包括阿里巴巴和深度求索等主要中国实验室,扩大了评估范围,超越了以美国为中心的前沿领域。新增的中国公司由于安全披露有限和存在性风险策略薄弱,也获得了D等评分。

最令人担忧的发现集中在"存在性安全"类别,这反映了人们日益担心无约束的AI——特别是一旦超越人类智能——可能对文明构成灾难性风险。

没有一家公司在存在性安全方面获得及格分数。

"即使是表现最好的公司也只获得C+等级,这意味着还有很大的改进空间,"未来生命研究所AI安全调查员Sabina Nong说。

调查询问每个实验室是否有经过验证的计划来控制超级智能系统。没有一家能够阐述可信的提案。

加州大学伯克利分校的Stuart Russell是独立审查员之一,他认为目前在大规模数据集上训练巨型"黑盒"模型的范式可能在结构上无法提供此类保证。该指数凸显了一个严峻现实:我们正在构建自己并不完全理解的系统,如果出错也没有安全刹车。

2025年指数最终强调,AI能力的改进速度远超安全水平的提升。

监管势在必行

Tegmark将此类比为临床试验或核安全,这些领域的监管机构在部署前要求定量证据、严格控制和透明测试。可以说AI更强大、更通用,却没有同等的监管标准。

与此同时,美国政策制定者正在努力解决有意义的监督应该是什么样子。在路透社NEXT会议上,美国AI安全研究所的Elizabeth Kelly表示,AI护栏的科学基础仍在变化。开发者自己也没有防止滥用的标准手册。

前沿实验室之外的问题

该指数考虑了最显眼的公司,而现实世界中的很多危害来源于其他地方。

即使顶级实验室有朝一日获得A等评分,仍然存在大量能够造成类似危害的小型模型和开源衍生产品。

一些研究人员认为,安全评估最终应该不仅包括模型开发者,还应包括放大和货币化AI生成内容的平台。如果没有追踪、审计或约束这些下游影响的机制,即使是"安全"的顶级模型也无法解决更大的问题。

目前,该指数揭示了AI承诺与其治理之间的差距。指数下一版本是否记录真正的改进,可能更少取决于实验室的承诺,更多取决于政府、标准机构和更广泛生态系统决定填补治理空白的速度。

Q&A

Q1:AI安全指数是什么?它如何评估AI公司?

A:AI安全指数是由未来生命研究所发布的评估报告,从风险评估、当前危害、安全框架、存在性安全策略、治理与问责、透明度与沟通六个类别对主要AI实验室进行评分,采用美国GPA量表。

Q2:哪些公司在AI安全方面表现最好?

A:根据2025年最新报告,Anthropic表现最好,获得C+等级。OpenAI和谷歌DeepMind也有显著进步,分别获得C+等和C等。但没有任何公司在存在性安全类别获得及格分数。

Q3:为什么AI安全监管如此重要?

A:因为AI能力提升速度远超安全水平,而且我们正在构建自己并不完全理解的系统。一旦AI超越人类智能,可能对文明构成灾难性风险,但目前没有公司能提供可信的超级智能系统控制方案。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

12/11

14:59

分享

点赞

邮件订阅