谷歌的 Gemini AI 或许起步较慢,但到了 2025 年,它的表现可谓是势不可挡。几乎每周都会有新的模型在 Gemini 应用或开发者工具(例如 AI Studio)中亮相,而今天,应用程序迎来了一次重大更新。谷歌宣布,其更快、更高效的 Gemini 2.5 Flash 模型已在预览中广泛推出。同时,开发者现在可以利用公司新公布的 API 定价开始使用 2.5 Flash 构建应用,谷歌称该价格远低于竞争产品。
一堆 Gemini 模型
Gemini 应用中的模型下拉菜单稍显复杂,尤其是随着 Veo 2 和 Personalization 等产品的陆续出现。谷歌发布了如此众多的预览模型以及 Gemini 的各种新用法,让人难以判断在特定任务中应该选择哪种方案。公平而言,在这一问题上,谷歌并非唯一面临困境的主要 AI 玩家。
Tulsee Doshi 是谷歌 Gemini 产品管理总监,负责领导构建这些模型的团队。我们询问 Doshi 自己更常使用哪一版本的 Gemini,不出所料,她更青睐功能更强大的选项。Doshi 表示:“目前我一般使用 2.5 Pro。我在日常工作中,会在若干关键环节(比如撰写文档或制作幻灯片)中全面采用 Gemini,无论是供内部使用还是对外分享,我都发现 2.5 Pro 在创意写作上非常有帮助。”
新模型比 Gemini 2.5 Pro 稍小,大小与 2.0 Flash 大致相同,但性能预期会更好。Doshi 称之为“较 2.0 Flash 有显著提升”。至少这一点上,Gemini 2.5 Flash 不会增加应用内的混乱。该模型将在应用程序和网站上以 “2.5 Flash (Experimental) ” 的名称出现,取代原有的 “2.0 Thinking (Experimental) ” 选项。事实上,2.0 Thinking 模型连实验阶段都未能走出,这足以证明如今谷歌 Gemini 团队推进项目的速度有多快。
与 2.0 Thinking 模型不同,新发布的 2.5 Flash 将首先支持谷歌用于处理文本或代码的 Canvas 功能。据谷歌发言人介绍,对该模型进行更深入研究的支持将于后续推出。
Gemini 2.5 Pro 依然存在并处于实验阶段,使得 2.0 Flash 成为了目前唯一非实验状态的聊天机器人,但该模型并不具备推理能力。
开思考,关思考
与谷歌 2.5 系列及以后的所有模型一样,Gemini 2.5 内置了模拟推理功能,谷歌称之为“思考”。这意味着模型在生成输出时会实时核实其事实,因而能够提供更准确的结果。然而,这也使得模型的运行速度变慢且成本更高。鉴于并非所有查询都需要这种持续的分析过程,谷歌为 Flash 模型提供了部分工具,帮助开发者根据实际使用场景对其进行调优。
您或许还记得,谷歌本月初已开始与开发者接触,推出 Gemini 2.5 Flash。尽管该模型尚未完全完善,谷歌已经选择在 Vertex AI 和 AI Studio 中以可变 API 定价的方式将其全面开放。
Gemini 2.5 Flash 允许开发者为“思考”设置 Token 限制,或干脆完全禁用“思考”。谷歌为输入定价为每百万 Token 美元 0.15,而输出则分为两种情况:不启用“思考”的情况下为美元 0.60,但启用“思考”则价格上升至美元 3.50。这一“思考预算”选项使开发者能够以愿意支付的费用来精细调控模型的行为。Doshi 表示,随着 Token 预算的增加,基准测试中可以明显看到推理能力的提升。
2.5 Flash 的输出效果会随着加入更多推理 Token 而得到改善。
与 2.5 Pro 相似,该模型支持动态思考功能,能够根据输入的复杂程度自动调整生成输出所需的工作量。新推出的 Flash 模型则更进一步,允许开发者主动控制“思考”的过程。Doshi 指出,谷歌此时推出该模型,部分原因在于收集开发者关于模型在哪些方面达到预期、何时思考不足或过度的反馈,以便在“动态思考”功能上不断迭代改进。
不过,目前不必期望在面向消费者的 Gemini 产品中立即实现如此精细的控制。Doshi 指出,开发者希望通过切换“思考”功能或设置预算,主要是为了更好地控制成本和响应延迟。谷歌则希望通过预览阶段的反馈,更好地理解用户和开发者对模型的期待。Doshi 表示:“我们的目标是在为消费者打造简单易用的 Gemini 应用体验的同时,依旧为开发者提供灵活的调节空间。”
随着产品发布节奏的加快,Gemini 2.5 的最终版本似乎指日可待。虽然谷歌目前尚未就此分享任何具体信息,但结合新推出的开发者选项以及 Gemini 应用中的可用性,Doshi 告诉我们,团队希望能尽快将 2.5 系列推向全面发布。
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。