Google 正在其 Gemini API 中推出一项功能,公司宣称这将使其最新的 AI 模型对于第三方开发者更加廉价。
Google 将这一功能称为 “隐式缓存”,并表示可以为通过 Gemini API 传递给模型的 “重复上下文” 节省 75% 的成本。该功能支持 Google 的 Gemini 2.5 Pro 和 2.5 Flash 模型。
随着前沿模型使用成本的不断增长,这无疑将给开发者带来好消息。
缓存是一种在 AI 行业被广泛采用的做法,通过重用模型中经常访问或预计算的数据,可以降低计算需求和成本。例如,缓存可以存储用户常问问题的答案,从而消除了模型重复生成相同请求答案的必要性。
此前 Google 曾提供模型提示缓存,但仅限于显式提示缓存,即开发者必须定义其出现频率最高的提示。虽然理论上可以保证节省成本,但显式提示缓存通常需要大量手动操作。
有开发者对 Google 在 Gemini 2.5 Pro 上的显式缓存实现表达了不满,他们表示该实现可能导致 API 费账单意外地高昂。上周关于此问题的抱怨声不断,促使 Gemini 团队公开道歉并承诺进行整改。
与显式缓存相比,隐式缓存是自动执行的。对于 Gemini 2.5 模型,隐式缓存默认开启,如果对模型发出的 Gemini API 请求命中了缓存,则会传递节省的成本。
Google 在博客中解释称:“当你向其中一个 Gemini 2.5 模型发送请求时,如果该请求与之前某次请求共享相同的前缀,则有资格命中缓存。我们将动态地将节省下来的成本返还给你。”
根据 Google 的开发者文档,2.5 Flash 模型隐式缓存的最低提示 Token 数是 1,024,而 2.5 Pro 模型则为 2,048,这个数值并不算太大,也就是说触发这些自动节省所需的条件并不苛刻。Token 是模型处理数据的基本单位,一千 Token 约等于 750 个单词。
鉴于 Google 之前的缓存成本节省声明曾遭遇挫折,这项新功能中也存在一些需要买家注意的地方。首先,Google 建议开发者将重复上下文保留在请求的开头,以提高隐式缓存命中的概率。对于可能在每次请求中变化的上下文,建议在末尾追加。
其次,Google 并未提供任何第三方验证,证明新的隐式缓存系统能实现承诺的自动节省效果。因此,最终效果如何,还需等待早期采用者的反馈。
好文章,需要你的鼓励
阿里云CEO吴泳铭在财报电话会议上表示,AI需求增长如此迅猛,以至于服务器部署速度无法跟上客户需求。公司正在对GPU进行配给制,优先满足使用全套阿里云服务的客户需求。过去12个月,阿里巴巴在AI相关基础设施上投入1200亿元人民币,预计三年预算可能超过当前的3800亿元。阿里云智能集团季度营收达56亿美元,同比增长34%。
新加坡南洋理工大学团队开发的NEO模型颠覆了传统视觉语言AI的设计思路,从模块化拼接转向原生统一架构。仅用3.9亿图文配对数据就实现了与大型模块化系统相媲美的性能,证明了端到端训练的有效性,为AI系统设计开辟了新路径。
OpenAI为ChatGPT推出"购物研究"新功能,恰逢假期购物季。该功能面向免费和付费用户开放,支持移动端和网页版。用户询问购物问题时,ChatGPT会提供个性化购物助手服务,通过一系列问题帮助用户筛选价格、用途和功能偏好。该功能基于专为购物任务优化的GPT-5 mini版本,从优质网络资源获取产品信息。OpenAI计划推出即时结账功能,允许用户直接在ChatGPT内购买商品。
谷歌联合德克萨斯大学等机构开发出LATTICE框架,这是一种革命性的信息检索系统,能像智能图书管理员一样工作。它将文档组织成语义树结构,用AI推理能力进行智能导航搜索,在复杂查询任务上比传统方法准确率提高9%以上。该系统无需训练即可适应新领域,为未来智能搜索指明了方向。