上个月,Google 发布 Gemini 2.5 引起轰动,此前在与 OpenAI 等公司的竞争中处于追赶地位的 Google,一跃成为 AI 领域的领跑者。这个首个实验性模型仅仅是个开始。Google 正在其生态系统的更多场景中部署改进后的 AI,从面向开发者的 Vertex AI 到面向消费者的 Gemini 应用都包括在内。
Gemini 模型推出速度如此之快,以至于很难把握 Google 的产品线规划。随着公司开始将其产品迁移到新分支,情况变得更加明朗。在 Google Cloud Next 大会上,公司宣布了 Gemini 2.5 Flash 的初步可用性。这个模型基于与 Gemini 2.5 Pro 相同的代码,但运行速度更快、成本更低。
目前在 Gemini 应用中还看不到 Gemini 2.5 Flash —— 它首先在 Vertex AI 开发平台上启用。Pro 版本的实验性广泛发布帮助 Google 收集数据并了解人们如何与新模型交互,这些经验有助于 2.5 Flash 的开发。
Flash 版本比 Pro 版本的参数量更小,尽管 Google 不愿透露具体的参数数量。Flash 模型能为简单的提示提供更快的答案,这也降低了成本。我们知道 2.5 Pro (实验版) 是首个实现动态思考的 Gemini 模型,这种技术允许模型调节回答时的模拟推理量。2.5 Flash 也是一个具备思考能力的模型,而且更加先进。
我们最近与 Google 的 Tulsee Doshi 交谈时了解到,2.5 Pro (实验版) 在响应简单查询时仍然容易"过度思考"。但计划是在最终发布版本中进一步改进动态思考,团队也希望给开发者更多控制该特性的能力。这些改进似乎在 Gemini 2.5 Flash 中得到了实现,它包含了"动态且可控的推理"。
最新的 Gemini 模型将根据提示的复杂程度选择"思考预算"。这有助于减少 2.5 Flash 的等待时间和处理时间。开发者甚至可以精细控制预算,在适当的情况下降低成本并加快速度。Gemini 2.5 模型在未来几周还将为 Vertex AI 增加监督调优和上下文缓存功能。
除了 Gemini 2.5 Flash 的推出,更大的 Pro 模型也有了新的用途。Google 最大的 Gemini 模型现在为其 Deep Research 工具提供支持,该工具此前运行的是 Gemini 2.0 Pro。Deep Research 让你只需输入一个提示就能深入探索某个主题。该工具会在互联网上收集数据并综合生成详细报告。
升级到 Gemini 2.5 后,Google 表示 Deep Research 的准确性和实用性都得到了提升。上图显示了 Google 声称相比 OpenAI 的深度研究工具具有的优势。这些统计数据基于用户评估(而非综合基准测试),显示用户对 Gemini 2.5 Pro 报告的偏好超过 2:1。
Deep Research 在非付费账户上可以有限使用,但无法使用最新模型。搭载 2.5 Pro 的 Deep Research 目前仅限 Gemini Advanced 订阅用户使用。不过,我们预计不久后 Gemini 应用中的所有模型都将升级到 2.5 分支。借助动态推理和新的 TPU,Google 可能开始降低目前让生成式 AI 无法盈利的高昂成本。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。