一项新研究显示,AI行业正在隐瞒关键信息。
AI公司以及整个AI产业从未如此重要。包括谷歌和Meta在内的七家知名AI公司占标准普尔500指数总市值的35%以上。OpenAI和Anthropic等初创公司是历史上最有价值的私人公司。数十亿人正在使用基础模型搜索信息、协助写作以及生成图像、视频和音频。但构建我们共同未来的这些公司到底有多透明?
今天,我们来自斯坦福、伯克利、普林斯顿和麻省理工学院的研究团队发布了2025年基础模型透明度指数,这是年度基础模型透明度指数的第三版。我们发现,自2024年以来透明度有所下降,各公司在透明度方面存在巨大差异。
2025年基础模型透明度指数对13家公司进行了评分,发现各公司在优先考虑透明度方面存在巨大差异。
基础模型透明度指数是一份年度报告,全面评估主要AI公司在其旗舰模型方面的透明度。每家公司都按100分制进行评分,涵盖训练数据、风险缓解和经济影响等主题。今年的指数表明,整个行业的透明度水平较低。在100分制中,公司平均得分仅为40分。
虽然平均分较低,但各公司的做法差异很大。出现了三个集群:表现最佳的公司得分约75分,中等水平的约35分,得分较低的平均约15分。
在榜首位置,IBM以95/100的分数创下了该指数历史上的最高分。值得注意的是,IBM通过在多个指标上披露信息树立了行业先例,这些信息其他公司都没有分享。例如,IBM是唯一一家为外部研究人员提供足够详细信息以复制其训练数据,并允许审计员等外部实体访问这些数据的公司。
另一方面,xAI和Midjourney的14/100分数是该指数历史上最低的分数之一。它们没有分享任何关于构建模型所用数据、模型相关风险或缓解这些风险所采取步骤的信息。总体而言,我们评估的13家公司几乎没有分享关于构建和部署基础模型对环境或社会影响的信息。
这些模式表明,当前的透明度实践主要取决于各个公司选择优先考虑透明度的程度,而非行业范围内对透明度的激励(或抑制)机制。
自2023年开始跟踪透明度的基础模型透明度指数在2025年整体下降,顶级公司排名发生重大变化。
这项工作揭示了企业透明度的变化状态。由于AI生态系统本身在过去三年中发生了重大变化,2025年指数是首次更新2023年版本中引入的原始指标的版本。考虑到标准的这一变化,分数已从2024年的平均58/100下降到2025年的40/100。各个公司的透明度都显著下降:Meta的得分从60分降至31分,Mistral从55分降至18分。2025年版还首次纳入了四家公司(阿里巴巴、DeepSeek、Midjourney、xAI),包括首次纳入中国主要公司。这些公司的得分都在指数的后半部分。
伴随透明度普遍下降,公司排名也发生了变化。在我们每年评分的六家公司中,Meta和OpenAI在2023年分别排名第一和第二,但现在分别排名倒数第一和倒数第二。相比之下,AI21 Labs从2023年的倒数第二上升到2025年的第一。这些得分变化反映了透明度实践的重大变化。Meta没有为其Llama 4旗舰模型发布技术报告。谷歌在发布Gemini 2.5的模型卡和技术报告方面严重延误,引起了英国立法者对其公开承诺发布这些文件的审查。
基础模型透明度指数在15个主要领域对公司进行评分,包括数据获取、模型访问和部署后监控。
基础模型透明度指数澄清了当前信息生态系统的复杂地形。整个行业在四个关键主题上系统性不透明:训练数据、训练计算、模型使用方式以及对社会的影响。这些领域中的每一个都将基础模型开发者与更广泛的AI供应链联系起来。考虑到这些领域中的许多在过去三年中一直不透明,今年的指数突出表明这些领域亟需政策干预。
公司对构建基础模型的环境影响高度不透明。10家公司没有披露与环境影响相关的任何关键信息:AI21 Labs、阿里巴巴、亚马逊、Anthropic、DeepSeek、谷歌、Midjourney、Mistral、OpenAI和xAI。这包括没有关于能源使用、碳排放或用水量的信息。公司隐瞒这些信息尤其重要,因为对数据中心的大规模投资已经使能源网络紧张,导致美国和其他地方的能源价格上涨。
开放性并不保证透明度;像DeepSeek和Meta这样的主要开放开发者相当不透明。
开放性和透明度是相互关联的概念,经常被同义使用。为了区分这些术语,我们说如果模型权重公开可用,则模型是开放的;如果公司向公众披露有关其实践的重要信息,则公司是透明的。模型权重的开放发布并不保证在训练计算、风险评估和下游使用等许多主题上的透明度。从经验上看,开放开发者往往比其封闭对手更透明。
但这种总体效应容易被误解。虽然IBM和AI21 Labs两个开放模型开发者非常透明,但三个最具影响力的开放开发者——DeepSeek、Meta和阿里巴巴——相当不透明。在假设开发者选择发布开放模型权重将带来关于公司实践或社会影响的更广泛透明度时应当谨慎。
分享AI公司内部封存的信息是确保公司治理、缓解AI危害以及促进对这一前沿技术强有力监督的基本公共产品。对更大透明度的总体需求是许多司法管辖区AI政策的首要任务。加利福尼亚州和欧盟已通过法律,要求就前沿AI的风险进行透明披露。前白宫AI顾问、美国AI行动计划主要作者Dean Ball提出透明度措施作为AI监管的常识性组成部分。基础模型透明度指数可以为政策制定者提供指导,既确定AI行业的当前信息状态,也识别在没有政策的情况下哪些领域更难以随时间改善。
了解更多关于2025年基础模型透明度指数的信息,探索每家公司的透明度报告,或阅读描述方法、分析和发现的报告。
Q&A
Q1:基础模型透明度指数是什么?如何评分?
A:基础模型透明度指数是一份年度报告,全面评估主要AI公司在其旗舰模型方面的透明度。每家公司都按100分制进行评分,涵盖训练数据、风险缓解和经济影响等主题。2025年版对13家公司进行评估,平均得分仅为40分。
Q2:哪些公司在透明度方面表现最好和最差?
A:IBM以95/100的分数创下历史最高分,是唯一提供足够详细信息供外部研究人员复制训练数据的公司。而xAI和Midjourney的14/100分数是历史最低分之一,它们没有分享任何关于数据使用、模型风险或风险缓解措施的信息。
Q3:AI公司在哪些方面最不透明?
A:整个AI行业在四个关键主题上系统性不透明:训练数据、训练计算、模型使用方式以及对社会的影响。特别是环境影响方面,有10家公司完全没有披露能源使用、碳排放或用水量等关键环境信息。
好文章,需要你的鼓励
Kollmorgen发布NDC布局助手软件工具,专为工厂和仓库中的自动导引车(AGV)及自主移动机器人(AMR)的路线规划与优化而设计。该工具通过分段分析路线,帮助工程师在系统部署前识别瓶颈与低效环节,提供行驶时间、车速及优化潜力等关键数据,并以可视化方式标注问题区域,从而缩短布局设计与验证周期。Kollmorgen表示,该工具未来还将融入AI驱动的优化能力。
这篇由加州大学圣地亚哥分校等六所机构联合发布的综述(arXiv:2605.02913,2026年4月),首次系统梳理了大型语言模型强化学习训练中长期被忽视的轨迹设计问题,提出了GFCR四模块框架(生成、过滤、控制、回放),覆盖数学、代码、多模态和智能代理等多个应用场景,并附有实用的故障诊断手册,为AI训练工程师提供系统性的方法论指导。
现代仓储已从幕后走向前台,配送速度成为品牌竞争核心。面对次日达甚至两小时送达的市场压力,领先履约中心借鉴敏捷开发理念,以周为单位迭代代码、机器人与工作流程。IoT信标、边缘计算与视觉识别模块构建双层架构,实现厘米级货盘追踪与低延迟决策。人机协作模式让员工从重体力劳动转向异常处理与数据分析,拣选准确率突破99%。同时,自动化系统实时采集碳排放数据,在提速的同时实现可量化的减排目标。
中国科学技术大学与FrameX.AI联合提出Stream-R1框架,针对AI视频生成蒸馏训练中"一视同仁"的核心缺陷,引入奖励模型对训练样本进行双重加权:在样本层面根据质量分数筛选可靠的学习信号,在像素与帧层面通过梯度显著性热力图集中优化最需改进的区域,使4步快速学生模型在VBench多项指标上超越慢速多步教师模型,推理速度提升30倍且不增加任何额外计算开销。