周四,在推出迄今为止最强大的 AI 模型 Gemini 2.5 Pro 数周后,Google 发布了一份技术报告,展示其内部安全评估的结果。然而,专家指出,该报告细节不足,使得外界难以判断该模型可能带来的风险。
技术报告提供了有用的——有时甚至是不太光彩的——信息,这些信息是公司不一定会广泛宣传的有关其 AI 的数据。总体来说,AI 社区将这些报告视为支持独立研究及安全评估的善意努力。
与一些 AI 竞争对手不同,Google 采用不同的安全报告方式,仅在其认为某个模型已“实验性”阶段结束后才发布技术报告。此外,该公司并未在这些报告中包含所有“危险能力”评估的发现,而是将这些内容保留在单独的审计报告中。
然而,多位 TechCrunch 采访的专家对 Gemini 2.5 Pro 报告中信息过于简略感到失望,他们指出,报告中并未提及 Google 的 Frontier Safety Framework (FSF)。去年,Google 推出了 FSF,并称这是为了识别未来可能造成“严重伤害”的 AI 能力所进行的一项努力。
Institute for AI Policy and Strategy 联合创始人 Peter Wildeford 告诉 TechCrunch:“这份报告非常简略,信息量极少,而且在模型已对公众开放数周后才发布。这样一来,我们无法验证 Google 是否兑现了其公开承诺,也就无法评价其模型的安全性及保密性。”
Secure AI Project 联合创始人 Thomas Woodside 表示,虽然他对 Google 为 Gemini 2.5 Pro 发布报告感到欣慰,但他对该公司是否能及时提供补充安全评估尚存疑虑。Woodside 指出,Google 上一次发布“危险能力”测试结果是在 2024 年 6 月,而那款模型是在同年 2 月宣布的。
令人信心不足的是,Google 目前尚未为上周宣布的一款较小且更高效的模型 Gemini 2.5 Flash 提供报告。公司一位发言人告诉 TechCrunch,关于 Flash 的报告“即将发布”。
Woodside 对 TechCrunch 表示:“我希望这次是 Google 保证开始发布更频繁更新的信号。这些更新应当包含尚未公开部署的模型的评估结果,因为这些模型同样可能带来严重风险。”
虽然 Google 可能是最早提出模型标准化报告的 AI 实验室之一,但它并不是唯一一个最近在透明度方面受到质疑的公司。Meta 发布了其新款 Llama 4 开放模型同样简略的安全评估,而 OpenAI 则选择不为其 GPT-4.1 系列公开任何报告。
目前,Google 面临着其向监管机构作出的承诺——保持高标准的 AI 安全测试和报告。两年前,Google 告知美国政府,将为所有“重要”且符合范围的公开 AI 模型发布安全报告。随后,该公司又向其他国家作出类似承诺,誓言“提供关于 AI 产品的公开透明信息”。
民主与科技中心 (Center for Democracy and Technology) 的 AI 治理高级顾问 Kevin Bankston 称,这种零星而含糊的报告趋势实际上是在进行一场“向底层竞争”的 AI 安全竞赛。
他对 TechCrunch 说:“再加上有报道显示竞争对手如 OpenAI 已将其安全测试时间由数月缩短至数天,Google 针对其顶级 AI 模型发布的这份简陋文档,揭示了在公司争相将模型推向市场的背景下,AI 安全与透明度正陷入一种向下竞争的困境。”
Google 曾在声明中表示,虽然其技术报告中未详细列出,但在模型发布前,公司会进行安全测试和“对抗性红队测试”。
好文章,需要你的鼓励
铠侠正在测试最新的UFS v4.1嵌入式闪存芯片,专为智能手机和平板电脑设计,可提供更快的下载速度和更流畅的设备端AI应用性能。该芯片采用218层TLC 3D NAND技术,提供256GB、512GB和1TB容量选择。相比v4.0产品,随机写入性能提升约30%,随机读取性能提升35-45%,同时功耗效率改善15-20%。新标准还增加了主机发起碎片整理、增强异常处理等功能特性。
上海AI实验室团队提出创新的异步拍摄方案,仅用普通相机就能实现高速4D重建。该方法通过错开相机启动时间将有效帧率从25FPS提升至100-200FPS,并结合视频扩散模型修复稀疏视角导致的重建伪影。实验结果显示,新方法在处理快速运动场景时显著优于现有技术,为低成本高质量4D内容创作开辟新路径。
谷歌在伦敦云峰会上发布Firebase Studio更新,新增Gemini命令行界面集成、模型上下文协议支持和"代理模式"。代理模式提供三种AI协作层次:对话式"询问"模式用于头脑风暴,人机协作代理需开发者确认代码变更,以及几乎完全自主的代理模式。尽管谷歌声称已有数百万应用使用该平台,但目前仍需精心设计提示词,非工程师用户还无法直接创建成熟应用。
上海AI实验室联手复旦大学提出了POLAR方法,这是一种革命性的奖励模型训练技术。通过让AI学会识别不同策略间的差异而非死记评分标准,POLAR在多项任务上实现了显著提升,7B参数模型超越72B现有最强基线,为AI对齐问题提供了全新解决思路。