根据未来生命研究所上周发布的最新AI安全指数报告,在保护我们免受AI风险方面,大型科技公司表现不佳,充其量只是C等水平。该指数从透明度、技术保障、治理实践以及减轻存在性风险的准备程度等方面,对世界主要前沿AI实验室进行评分。
该指数既是成绩单,也是公众反馈工具,在政府监管跟上步伐之前,通过独立审查施加压力。
"这样做的目的不是为了羞辱任何人,"麻省理工学院物理学家、未来生命研究所联合创始人Max Tegmark表示,"而是为公司提供改进的激励。"
Tegmark希望在监管能够放缓这场竞赛之前,该指数将创造公司无法忽视的公众压力,就像大学无法忽视《美国新闻与世界报道》的排名一样。
但他承认,在没有约束性标准的情况下,没有公司愿意放慢脚步。他认为,如果有严格的监管,竞争激励将会逆转:谁先通过安全标准,谁就能先部署。
关键时刻的评分卡
2024年指数评估了六家公司——Anthropic、谷歌DeepMind、Meta、OpenAI、xAI和中国的智谱AI——涵盖六个类别:风险评估、当前危害、安全框架、存在性安全策略、治理与问责、透明度与沟通。评分系统采用美国GPA量表。
在去年的指数中,Anthropic获得最高总分:C等。其他公司分布在下方:谷歌DeepMind、OpenAI、xAI和智谱AI聚集在D等范围。Meta获得F等。
最新的2025年冬季版本显示有所改善,Anthropic从C等上升到C+等。OpenAI和谷歌DeepMind也取得显著进步,主要凭借扩展的文档资料,从D等范围升至C+等和C等。
然而,其余公司——包括xAI、Meta和智谱AI——仍然聚集在D等范围,进步有限。
该指数现在包括阿里巴巴和深度求索等主要中国实验室,扩大了评估范围,超越了以美国为中心的前沿领域。新增的中国公司由于安全披露有限和存在性风险策略薄弱,也获得了D等评分。
最令人担忧的发现集中在"存在性安全"类别,这反映了人们日益担心无约束的AI——特别是一旦超越人类智能——可能对文明构成灾难性风险。
没有一家公司在存在性安全方面获得及格分数。
"即使是表现最好的公司也只获得C+等级,这意味着还有很大的改进空间,"未来生命研究所AI安全调查员Sabina Nong说。
调查询问每个实验室是否有经过验证的计划来控制超级智能系统。没有一家能够阐述可信的提案。
加州大学伯克利分校的Stuart Russell是独立审查员之一,他认为目前在大规模数据集上训练巨型"黑盒"模型的范式可能在结构上无法提供此类保证。该指数凸显了一个严峻现实:我们正在构建自己并不完全理解的系统,如果出错也没有安全刹车。
2025年指数最终强调,AI能力的改进速度远超安全水平的提升。
监管势在必行
Tegmark将此类比为临床试验或核安全,这些领域的监管机构在部署前要求定量证据、严格控制和透明测试。可以说AI更强大、更通用,却没有同等的监管标准。
与此同时,美国政策制定者正在努力解决有意义的监督应该是什么样子。在路透社NEXT会议上,美国AI安全研究所的Elizabeth Kelly表示,AI护栏的科学基础仍在变化。开发者自己也没有防止滥用的标准手册。
前沿实验室之外的问题
该指数考虑了最显眼的公司,而现实世界中的很多危害来源于其他地方。
即使顶级实验室有朝一日获得A等评分,仍然存在大量能够造成类似危害的小型模型和开源衍生产品。
一些研究人员认为,安全评估最终应该不仅包括模型开发者,还应包括放大和货币化AI生成内容的平台。如果没有追踪、审计或约束这些下游影响的机制,即使是"安全"的顶级模型也无法解决更大的问题。
目前,该指数揭示了AI承诺与其治理之间的差距。指数下一版本是否记录真正的改进,可能更少取决于实验室的承诺,更多取决于政府、标准机构和更广泛生态系统决定填补治理空白的速度。
Q&A
Q1:AI安全指数是什么?它如何评估AI公司?
A:AI安全指数是由未来生命研究所发布的评估报告,从风险评估、当前危害、安全框架、存在性安全策略、治理与问责、透明度与沟通六个类别对主要AI实验室进行评分,采用美国GPA量表。
Q2:哪些公司在AI安全方面表现最好?
A:根据2025年最新报告,Anthropic表现最好,获得C+等级。OpenAI和谷歌DeepMind也有显著进步,分别获得C+等和C等。但没有任何公司在存在性安全类别获得及格分数。
Q3:为什么AI安全监管如此重要?
A:因为AI能力提升速度远超安全水平,而且我们正在构建自己并不完全理解的系统。一旦AI超越人类智能,可能对文明构成灾难性风险,但目前没有公司能提供可信的超级智能系统控制方案。
好文章,需要你的鼓励
尽管许多组织在生成式人工智能方面投入巨资,但大多数并未获得预期的生产力提升。仅仅采用新技术已不足以推动生产力增长。IT领导者需要帮助员工建立相关技能,提供针对性培训,鼓励员工将AI应用于创意和创新工作。数据显示,每天使用AI的员工获得重大生产力提升的可能性是偶尔使用者的4.6倍。
Meta与华盛顿大学联合研究团队开发出无需人类标注的AI评判官自我训练框架。该方法通过生成合成对比数据、自我判断筛选和反复学习,使110亿参数的AI评判官在多项视觉语言任务中超越GPT-4o等大型模型,成本仅为传统方法的1%,为AI自主学习和评估开辟新路径。
未来生命研究所最新发布的AI安全指数显示,大型科技公司在AI安全方面表现不佳,最高仅获得C+评级。该指数评估了包括Anthropic、谷歌、Meta、OpenAI等六家主要AI实验室的透明度、技术保障和治理实践。最令人担忧的是,没有一家公司在"存在性安全"类别中获得及格分数,均无法提出可信的超级智能系统控制方案。研究表明AI能力提升速度远超安全保障发展。
华中科技大学团队开发出4DLangVGGT技术,首次实现AI系统对4D动态场景的语言理解。该技术突破传统方法需要逐场景训练的限制,能跨场景通用部署。系统结合几何感知和语义理解,不仅能识别物体还能描述其时间变化过程。实验显示在多项指标上超越现有方法1-2%,为机器人、AR/VR、智能监控等领域提供重要技术支撑。