上个月,Google 发布 Gemini 2.5 引起轰动,此前在与 OpenAI 等公司的竞争中处于追赶地位的 Google,一跃成为 AI 领域的领跑者。这个首个实验性模型仅仅是个开始。Google 正在其生态系统的更多场景中部署改进后的 AI,从面向开发者的 Vertex AI 到面向消费者的 Gemini 应用都包括在内。
Gemini 模型推出速度如此之快,以至于很难把握 Google 的产品线规划。随着公司开始将其产品迁移到新分支,情况变得更加明朗。在 Google Cloud Next 大会上,公司宣布了 Gemini 2.5 Flash 的初步可用性。这个模型基于与 Gemini 2.5 Pro 相同的代码,但运行速度更快、成本更低。
目前在 Gemini 应用中还看不到 Gemini 2.5 Flash —— 它首先在 Vertex AI 开发平台上启用。Pro 版本的实验性广泛发布帮助 Google 收集数据并了解人们如何与新模型交互,这些经验有助于 2.5 Flash 的开发。
Flash 版本比 Pro 版本的参数量更小,尽管 Google 不愿透露具体的参数数量。Flash 模型能为简单的提示提供更快的答案,这也降低了成本。我们知道 2.5 Pro (实验版) 是首个实现动态思考的 Gemini 模型,这种技术允许模型调节回答时的模拟推理量。2.5 Flash 也是一个具备思考能力的模型,而且更加先进。
我们最近与 Google 的 Tulsee Doshi 交谈时了解到,2.5 Pro (实验版) 在响应简单查询时仍然容易"过度思考"。但计划是在最终发布版本中进一步改进动态思考,团队也希望给开发者更多控制该特性的能力。这些改进似乎在 Gemini 2.5 Flash 中得到了实现,它包含了"动态且可控的推理"。
最新的 Gemini 模型将根据提示的复杂程度选择"思考预算"。这有助于减少 2.5 Flash 的等待时间和处理时间。开发者甚至可以精细控制预算,在适当的情况下降低成本并加快速度。Gemini 2.5 模型在未来几周还将为 Vertex AI 增加监督调优和上下文缓存功能。
除了 Gemini 2.5 Flash 的推出,更大的 Pro 模型也有了新的用途。Google 最大的 Gemini 模型现在为其 Deep Research 工具提供支持,该工具此前运行的是 Gemini 2.0 Pro。Deep Research 让你只需输入一个提示就能深入探索某个主题。该工具会在互联网上收集数据并综合生成详细报告。
升级到 Gemini 2.5 后,Google 表示 Deep Research 的准确性和实用性都得到了提升。上图显示了 Google 声称相比 OpenAI 的深度研究工具具有的优势。这些统计数据基于用户评估(而非综合基准测试),显示用户对 Gemini 2.5 Pro 报告的偏好超过 2:1。
Deep Research 在非付费账户上可以有限使用,但无法使用最新模型。搭载 2.5 Pro 的 Deep Research 目前仅限 Gemini Advanced 订阅用户使用。不过,我们预计不久后 Gemini 应用中的所有模型都将升级到 2.5 分支。借助动态推理和新的 TPU,Google 可能开始降低目前让生成式 AI 无法盈利的高昂成本。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。