在谷歌因 OpenAI 的 ChatGPT 发布而措手不及的两年多后,该公司现在已大幅加快了步伐。
3 月下旬,Google 推出了一个 AI 推理模型 Gemini 2.5 Pro,在衡量编程和数学能力的多个基准测试中处于行业领先地位。这次发布仅在该科技巨头推出当时最先进的另一个模型 Gemini 2.0 Flash 的三个月之后。
Google 的 Gemini 产品总监兼负责人 Tulsee Doshi 在接受 TechCrunch 采访时表示,公司模型发布频率的提高是为了跟上快速发展的 AI 行业的一部分努力。
"我们仍在努力找出发布这些模型的正确方式 - 获取反馈的正确方式," Doshi 说。
但加快的发布时间表似乎是有代价的。Google 尚未发布其最新模型(包括 Gemini 2.5 Pro 和 Gemini 2.0 Flash)的安全报告,这引发了人们对公司优先考虑速度而非透明度的担忧。
如今,前沿 AI 实验室(包括 OpenAI、Anthropic 和 Meta)在推出新模型时发布安全测试、性能评估和使用案例的报告已成为标准做法。这些报告,有时被称为系统卡片或模型卡片,是多年前由业界和学术界的研究人员提出的。Google 实际上是在 2019 年的一篇研究论文中最早提出模型卡片的公司之一,称其为"机器学习中负责任、透明和可问责实践的方法"。
Doshi 告诉 TechCrunch,公司尚未发布 Gemini 2.5 Pro 的模型卡片,因为它认为该模型是一个"实验性"发布。她表示,这些实验性发布的目标是以有限的方式推出 AI 模型,获取反馈,并在正式发布前对模型进行迭代。
据 Doshi 称,Google 计划在模型正式公开发布时发布 Gemini 2.5 Pro 的模型卡片,并补充说公司已经完成了安全测试和对抗性红队测试。
在后续的消息中,Google 发言人告诉 TechCrunch,安全仍然是公司的"首要任务",并计划在未来发布更多关于其 AI 模型(包括 Gemini 2.0 Flash)的文档。Gemini 2.0 Flash 虽然已经正式发布,但仍然缺少模型卡片。Google 最后发布的模型卡片是一年多前发布的 Gemini 1.5 Pro 的。
系统卡片和模型卡片提供了一些有用的 - 有时是不太光彩的 - 信息,这些信息公司并不总是广泛宣传。例如,OpenAI 为其 o1 推理模型发布的系统卡片揭示,该公司的模型有"策划"对抗人类的倾向,并秘密追求自己的目标。
总的来说,AI 社区将这些报告视为支持独立研究和安全评估的善意努力,但这些报告在近年来变得更加重要。正如 Transformer 此前指出的,Google 在 2023 年向美国政府承诺,将为所有"重要的"、公开的 AI 模型发布"在范围内"的安全报告。该公司也向其他政府做出了类似承诺,承诺"提供公众透明度"。
美国联邦和州级层面都有为 AI 模型开发者制定安全报告标准的监管努力。然而,这些努力的采用和成功都很有限。其中一个较为引人注目的尝试是被否决的加利福尼亚州 SB 1047 法案,该法案遭到科技行业的强烈反对。立法者们还提出了授权美国 AI 安全研究所(美国的 AI 标准制定机构)制定模型发布指南的法案。然而,该安全研究所现在面临着特朗普政府可能削减预算的威胁。
从所有迹象来看,Google 在履行其模型测试报告承诺方面正在落后,同时却比以往任何时候都更快地发布模型。许多专家认为这是一个不好的先例 - 特别是随着这些模型变得更加强大和复杂。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。