谷歌的 Gemini AI 或许起步较慢,但到了 2025 年,它的表现可谓是势不可挡。几乎每周都会有新的模型在 Gemini 应用或开发者工具(例如 AI Studio)中亮相,而今天,应用程序迎来了一次重大更新。谷歌宣布,其更快、更高效的 Gemini 2.5 Flash 模型已在预览中广泛推出。同时,开发者现在可以利用公司新公布的 API 定价开始使用 2.5 Flash 构建应用,谷歌称该价格远低于竞争产品。
一堆 Gemini 模型
Gemini 应用中的模型下拉菜单稍显复杂,尤其是随着 Veo 2 和 Personalization 等产品的陆续出现。谷歌发布了如此众多的预览模型以及 Gemini 的各种新用法,让人难以判断在特定任务中应该选择哪种方案。公平而言,在这一问题上,谷歌并非唯一面临困境的主要 AI 玩家。
Tulsee Doshi 是谷歌 Gemini 产品管理总监,负责领导构建这些模型的团队。我们询问 Doshi 自己更常使用哪一版本的 Gemini,不出所料,她更青睐功能更强大的选项。Doshi 表示:“目前我一般使用 2.5 Pro。我在日常工作中,会在若干关键环节(比如撰写文档或制作幻灯片)中全面采用 Gemini,无论是供内部使用还是对外分享,我都发现 2.5 Pro 在创意写作上非常有帮助。”
新模型比 Gemini 2.5 Pro 稍小,大小与 2.0 Flash 大致相同,但性能预期会更好。Doshi 称之为“较 2.0 Flash 有显著提升”。至少这一点上,Gemini 2.5 Flash 不会增加应用内的混乱。该模型将在应用程序和网站上以 “2.5 Flash (Experimental) ” 的名称出现,取代原有的 “2.0 Thinking (Experimental) ” 选项。事实上,2.0 Thinking 模型连实验阶段都未能走出,这足以证明如今谷歌 Gemini 团队推进项目的速度有多快。
与 2.0 Thinking 模型不同,新发布的 2.5 Flash 将首先支持谷歌用于处理文本或代码的 Canvas 功能。据谷歌发言人介绍,对该模型进行更深入研究的支持将于后续推出。
Gemini 2.5 Pro 依然存在并处于实验阶段,使得 2.0 Flash 成为了目前唯一非实验状态的聊天机器人,但该模型并不具备推理能力。
开思考,关思考
与谷歌 2.5 系列及以后的所有模型一样,Gemini 2.5 内置了模拟推理功能,谷歌称之为“思考”。这意味着模型在生成输出时会实时核实其事实,因而能够提供更准确的结果。然而,这也使得模型的运行速度变慢且成本更高。鉴于并非所有查询都需要这种持续的分析过程,谷歌为 Flash 模型提供了部分工具,帮助开发者根据实际使用场景对其进行调优。
您或许还记得,谷歌本月初已开始与开发者接触,推出 Gemini 2.5 Flash。尽管该模型尚未完全完善,谷歌已经选择在 Vertex AI 和 AI Studio 中以可变 API 定价的方式将其全面开放。
Gemini 2.5 Flash 允许开发者为“思考”设置 Token 限制,或干脆完全禁用“思考”。谷歌为输入定价为每百万 Token 美元 0.15,而输出则分为两种情况:不启用“思考”的情况下为美元 0.60,但启用“思考”则价格上升至美元 3.50。这一“思考预算”选项使开发者能够以愿意支付的费用来精细调控模型的行为。Doshi 表示,随着 Token 预算的增加,基准测试中可以明显看到推理能力的提升。
2.5 Flash 的输出效果会随着加入更多推理 Token 而得到改善。
与 2.5 Pro 相似,该模型支持动态思考功能,能够根据输入的复杂程度自动调整生成输出所需的工作量。新推出的 Flash 模型则更进一步,允许开发者主动控制“思考”的过程。Doshi 指出,谷歌此时推出该模型,部分原因在于收集开发者关于模型在哪些方面达到预期、何时思考不足或过度的反馈,以便在“动态思考”功能上不断迭代改进。
不过,目前不必期望在面向消费者的 Gemini 产品中立即实现如此精细的控制。Doshi 指出,开发者希望通过切换“思考”功能或设置预算,主要是为了更好地控制成本和响应延迟。谷歌则希望通过预览阶段的反馈,更好地理解用户和开发者对模型的期待。Doshi 表示:“我们的目标是在为消费者打造简单易用的 Gemini 应用体验的同时,依旧为开发者提供灵活的调节空间。”
随着产品发布节奏的加快,Gemini 2.5 的最终版本似乎指日可待。虽然谷歌目前尚未就此分享任何具体信息,但结合新推出的开发者选项以及 Gemini 应用中的可用性,Doshi 告诉我们,团队希望能尽快将 2.5 系列推向全面发布。
好文章,需要你的鼓励
本文评测了六款控制台平铺终端复用器工具。GNU Screen作为老牌工具功能强大但操作复杂,Tmux更现代化但学习曲线陡峭,Byobu为前两者提供友好界面,Zellij用Rust编写界面简洁易用,DVTM追求极简主义,Twin提供类似TurboVision的文本界面环境。每款工具都有各自特点和适用场景。
韩国汉阳大学联合高通AI研究院开发出InfiniPot-V框架,解决了移动设备处理长视频时的内存限制问题。该技术通过时间冗余消除和语义重要性保留两种策略,将存储需求压缩至原来的12%,同时保持高准确性,让手机和AR眼镜也能实时理解超长视频内容。
网络安全公司Snyk宣布收购瑞士人工智能安全研究公司Invariant Labs,收购金额未公开。Invariant Labs从苏黎世联邦理工学院分拆成立,专注于帮助开发者构建安全可靠的AI代理工具和框架。该公司提供Explorer运行时观察仪表板、Gateway轻量级代理、Guardrails策略引擎等产品,并在工具中毒和模型上下文协议漏洞等新兴AI威胁防护方面处于领先地位。此次收购将推进Snyk保护下一代AI原生应用的使命。
纽约大学研究团队通过INT-ACT测试套件全面评估了当前先进的视觉-语言-动作机器人模型,发现了一个普遍存在的"意图-行动差距"问题:机器人能够正确理解任务和识别物体,但在实际动作执行时频频失败。研究还揭示了端到端训练会损害原有语言理解能力,以及多模态挑战下的推理脆弱性,为未来机器人技术发展提供了重要指导。