周四,在推出迄今为止最强大的 AI 模型 Gemini 2.5 Pro 数周后,Google 发布了一份技术报告,展示其内部安全评估的结果。然而,专家指出,该报告细节不足,使得外界难以判断该模型可能带来的风险。
技术报告提供了有用的——有时甚至是不太光彩的——信息,这些信息是公司不一定会广泛宣传的有关其 AI 的数据。总体来说,AI 社区将这些报告视为支持独立研究及安全评估的善意努力。
与一些 AI 竞争对手不同,Google 采用不同的安全报告方式,仅在其认为某个模型已“实验性”阶段结束后才发布技术报告。此外,该公司并未在这些报告中包含所有“危险能力”评估的发现,而是将这些内容保留在单独的审计报告中。
然而,多位 TechCrunch 采访的专家对 Gemini 2.5 Pro 报告中信息过于简略感到失望,他们指出,报告中并未提及 Google 的 Frontier Safety Framework (FSF)。去年,Google 推出了 FSF,并称这是为了识别未来可能造成“严重伤害”的 AI 能力所进行的一项努力。
Institute for AI Policy and Strategy 联合创始人 Peter Wildeford 告诉 TechCrunch:“这份报告非常简略,信息量极少,而且在模型已对公众开放数周后才发布。这样一来,我们无法验证 Google 是否兑现了其公开承诺,也就无法评价其模型的安全性及保密性。”
Secure AI Project 联合创始人 Thomas Woodside 表示,虽然他对 Google 为 Gemini 2.5 Pro 发布报告感到欣慰,但他对该公司是否能及时提供补充安全评估尚存疑虑。Woodside 指出,Google 上一次发布“危险能力”测试结果是在 2024 年 6 月,而那款模型是在同年 2 月宣布的。
令人信心不足的是,Google 目前尚未为上周宣布的一款较小且更高效的模型 Gemini 2.5 Flash 提供报告。公司一位发言人告诉 TechCrunch,关于 Flash 的报告“即将发布”。
Woodside 对 TechCrunch 表示:“我希望这次是 Google 保证开始发布更频繁更新的信号。这些更新应当包含尚未公开部署的模型的评估结果,因为这些模型同样可能带来严重风险。”
虽然 Google 可能是最早提出模型标准化报告的 AI 实验室之一,但它并不是唯一一个最近在透明度方面受到质疑的公司。Meta 发布了其新款 Llama 4 开放模型同样简略的安全评估,而 OpenAI 则选择不为其 GPT-4.1 系列公开任何报告。
目前,Google 面临着其向监管机构作出的承诺——保持高标准的 AI 安全测试和报告。两年前,Google 告知美国政府,将为所有“重要”且符合范围的公开 AI 模型发布安全报告。随后,该公司又向其他国家作出类似承诺,誓言“提供关于 AI 产品的公开透明信息”。
民主与科技中心 (Center for Democracy and Technology) 的 AI 治理高级顾问 Kevin Bankston 称,这种零星而含糊的报告趋势实际上是在进行一场“向底层竞争”的 AI 安全竞赛。
他对 TechCrunch 说:“再加上有报道显示竞争对手如 OpenAI 已将其安全测试时间由数月缩短至数天,Google 针对其顶级 AI 模型发布的这份简陋文档,揭示了在公司争相将模型推向市场的背景下,AI 安全与透明度正陷入一种向下竞争的困境。”
Google 曾在声明中表示,虽然其技术报告中未详细列出,但在模型发布前,公司会进行安全测试和“对抗性红队测试”。
好文章,需要你的鼓励
随着大型语言模型迅猛演进,量子启发 AI 正在探索通过并行扩散模型和量子退火技术实现更高效率和低能耗,为未来 AI 架构提供革新思路。
CapitaLand Investment 利用Python和多种机器学习算法开发车场预测系统,动态优化停车位资源与用户体验,实现整体收入提升15%。
OpenAI 最新推出的 o3 和 o4-mini 推理 AI 模型虽然在编程和数学等任务上表现出色,但幻觉率却远高于以往模型,引发了对准确性的严重担忧,亟待进一步研究。