上个月,Google 发布 Gemini 2.5 引起轰动,此前在与 OpenAI 等公司的竞争中处于追赶地位的 Google,一跃成为 AI 领域的领跑者。这个首个实验性模型仅仅是个开始。Google 正在其生态系统的更多场景中部署改进后的 AI,从面向开发者的 Vertex AI 到面向消费者的 Gemini 应用都包括在内。
Gemini 模型推出速度如此之快,以至于很难把握 Google 的产品线规划。随着公司开始将其产品迁移到新分支,情况变得更加明朗。在 Google Cloud Next 大会上,公司宣布了 Gemini 2.5 Flash 的初步可用性。这个模型基于与 Gemini 2.5 Pro 相同的代码,但运行速度更快、成本更低。
目前在 Gemini 应用中还看不到 Gemini 2.5 Flash —— 它首先在 Vertex AI 开发平台上启用。Pro 版本的实验性广泛发布帮助 Google 收集数据并了解人们如何与新模型交互,这些经验有助于 2.5 Flash 的开发。
Flash 版本比 Pro 版本的参数量更小,尽管 Google 不愿透露具体的参数数量。Flash 模型能为简单的提示提供更快的答案,这也降低了成本。我们知道 2.5 Pro (实验版) 是首个实现动态思考的 Gemini 模型,这种技术允许模型调节回答时的模拟推理量。2.5 Flash 也是一个具备思考能力的模型,而且更加先进。
我们最近与 Google 的 Tulsee Doshi 交谈时了解到,2.5 Pro (实验版) 在响应简单查询时仍然容易"过度思考"。但计划是在最终发布版本中进一步改进动态思考,团队也希望给开发者更多控制该特性的能力。这些改进似乎在 Gemini 2.5 Flash 中得到了实现,它包含了"动态且可控的推理"。
最新的 Gemini 模型将根据提示的复杂程度选择"思考预算"。这有助于减少 2.5 Flash 的等待时间和处理时间。开发者甚至可以精细控制预算,在适当的情况下降低成本并加快速度。Gemini 2.5 模型在未来几周还将为 Vertex AI 增加监督调优和上下文缓存功能。
除了 Gemini 2.5 Flash 的推出,更大的 Pro 模型也有了新的用途。Google 最大的 Gemini 模型现在为其 Deep Research 工具提供支持,该工具此前运行的是 Gemini 2.0 Pro。Deep Research 让你只需输入一个提示就能深入探索某个主题。该工具会在互联网上收集数据并综合生成详细报告。
升级到 Gemini 2.5 后,Google 表示 Deep Research 的准确性和实用性都得到了提升。上图显示了 Google 声称相比 OpenAI 的深度研究工具具有的优势。这些统计数据基于用户评估(而非综合基准测试),显示用户对 Gemini 2.5 Pro 报告的偏好超过 2:1。
Deep Research 在非付费账户上可以有限使用,但无法使用最新模型。搭载 2.5 Pro 的 Deep Research 目前仅限 Gemini Advanced 订阅用户使用。不过,我们预计不久后 Gemini 应用中的所有模型都将升级到 2.5 分支。借助动态推理和新的 TPU,Google 可能开始降低目前让生成式 AI 无法盈利的高昂成本。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。