Google 正在其 Gemini API 中推出一项功能,公司宣称这将使其最新的 AI 模型对于第三方开发者更加廉价。
Google 将这一功能称为 “隐式缓存”,并表示可以为通过 Gemini API 传递给模型的 “重复上下文” 节省 75% 的成本。该功能支持 Google 的 Gemini 2.5 Pro 和 2.5 Flash 模型。
随着前沿模型使用成本的不断增长,这无疑将给开发者带来好消息。
缓存是一种在 AI 行业被广泛采用的做法,通过重用模型中经常访问或预计算的数据,可以降低计算需求和成本。例如,缓存可以存储用户常问问题的答案,从而消除了模型重复生成相同请求答案的必要性。
此前 Google 曾提供模型提示缓存,但仅限于显式提示缓存,即开发者必须定义其出现频率最高的提示。虽然理论上可以保证节省成本,但显式提示缓存通常需要大量手动操作。
有开发者对 Google 在 Gemini 2.5 Pro 上的显式缓存实现表达了不满,他们表示该实现可能导致 API 费账单意外地高昂。上周关于此问题的抱怨声不断,促使 Gemini 团队公开道歉并承诺进行整改。
与显式缓存相比,隐式缓存是自动执行的。对于 Gemini 2.5 模型,隐式缓存默认开启,如果对模型发出的 Gemini API 请求命中了缓存,则会传递节省的成本。
Google 在博客中解释称:“当你向其中一个 Gemini 2.5 模型发送请求时,如果该请求与之前某次请求共享相同的前缀,则有资格命中缓存。我们将动态地将节省下来的成本返还给你。”
根据 Google 的开发者文档,2.5 Flash 模型隐式缓存的最低提示 Token 数是 1,024,而 2.5 Pro 模型则为 2,048,这个数值并不算太大,也就是说触发这些自动节省所需的条件并不苛刻。Token 是模型处理数据的基本单位,一千 Token 约等于 750 个单词。
鉴于 Google 之前的缓存成本节省声明曾遭遇挫折,这项新功能中也存在一些需要买家注意的地方。首先,Google 建议开发者将重复上下文保留在请求的开头,以提高隐式缓存命中的概率。对于可能在每次请求中变化的上下文,建议在末尾追加。
其次,Google 并未提供任何第三方验证,证明新的隐式缓存系统能实现承诺的自动节省效果。因此,最终效果如何,还需等待早期采用者的反馈。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。