在谷歌因 OpenAI 的 ChatGPT 发布而措手不及的两年多后,该公司现在已大幅加快了步伐。
3 月下旬,Google 推出了一个 AI 推理模型 Gemini 2.5 Pro,在衡量编程和数学能力的多个基准测试中处于行业领先地位。这次发布仅在该科技巨头推出当时最先进的另一个模型 Gemini 2.0 Flash 的三个月之后。
Google 的 Gemini 产品总监兼负责人 Tulsee Doshi 在接受 TechCrunch 采访时表示,公司模型发布频率的提高是为了跟上快速发展的 AI 行业的一部分努力。
"我们仍在努力找出发布这些模型的正确方式 - 获取反馈的正确方式," Doshi 说。
但加快的发布时间表似乎是有代价的。Google 尚未发布其最新模型(包括 Gemini 2.5 Pro 和 Gemini 2.0 Flash)的安全报告,这引发了人们对公司优先考虑速度而非透明度的担忧。
如今,前沿 AI 实验室(包括 OpenAI、Anthropic 和 Meta)在推出新模型时发布安全测试、性能评估和使用案例的报告已成为标准做法。这些报告,有时被称为系统卡片或模型卡片,是多年前由业界和学术界的研究人员提出的。Google 实际上是在 2019 年的一篇研究论文中最早提出模型卡片的公司之一,称其为"机器学习中负责任、透明和可问责实践的方法"。
Doshi 告诉 TechCrunch,公司尚未发布 Gemini 2.5 Pro 的模型卡片,因为它认为该模型是一个"实验性"发布。她表示,这些实验性发布的目标是以有限的方式推出 AI 模型,获取反馈,并在正式发布前对模型进行迭代。
据 Doshi 称,Google 计划在模型正式公开发布时发布 Gemini 2.5 Pro 的模型卡片,并补充说公司已经完成了安全测试和对抗性红队测试。
在后续的消息中,Google 发言人告诉 TechCrunch,安全仍然是公司的"首要任务",并计划在未来发布更多关于其 AI 模型(包括 Gemini 2.0 Flash)的文档。Gemini 2.0 Flash 虽然已经正式发布,但仍然缺少模型卡片。Google 最后发布的模型卡片是一年多前发布的 Gemini 1.5 Pro 的。
系统卡片和模型卡片提供了一些有用的 - 有时是不太光彩的 - 信息,这些信息公司并不总是广泛宣传。例如,OpenAI 为其 o1 推理模型发布的系统卡片揭示,该公司的模型有"策划"对抗人类的倾向,并秘密追求自己的目标。
总的来说,AI 社区将这些报告视为支持独立研究和安全评估的善意努力,但这些报告在近年来变得更加重要。正如 Transformer 此前指出的,Google 在 2023 年向美国政府承诺,将为所有"重要的"、公开的 AI 模型发布"在范围内"的安全报告。该公司也向其他政府做出了类似承诺,承诺"提供公众透明度"。
美国联邦和州级层面都有为 AI 模型开发者制定安全报告标准的监管努力。然而,这些努力的采用和成功都很有限。其中一个较为引人注目的尝试是被否决的加利福尼亚州 SB 1047 法案,该法案遭到科技行业的强烈反对。立法者们还提出了授权美国 AI 安全研究所(美国的 AI 标准制定机构)制定模型发布指南的法案。然而,该安全研究所现在面临着特朗普政府可能削减预算的威胁。
从所有迹象来看,Google 在履行其模型测试报告承诺方面正在落后,同时却比以往任何时候都更快地发布模型。许多专家认为这是一个不好的先例 - 特别是随着这些模型变得更加强大和复杂。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。