Google 正在其 Gemini API 中推出一项功能,公司宣称这将使其最新的 AI 模型对于第三方开发者更加廉价。
Google 将这一功能称为 “隐式缓存”,并表示可以为通过 Gemini API 传递给模型的 “重复上下文” 节省 75% 的成本。该功能支持 Google 的 Gemini 2.5 Pro 和 2.5 Flash 模型。
随着前沿模型使用成本的不断增长,这无疑将给开发者带来好消息。
缓存是一种在 AI 行业被广泛采用的做法,通过重用模型中经常访问或预计算的数据,可以降低计算需求和成本。例如,缓存可以存储用户常问问题的答案,从而消除了模型重复生成相同请求答案的必要性。
此前 Google 曾提供模型提示缓存,但仅限于显式提示缓存,即开发者必须定义其出现频率最高的提示。虽然理论上可以保证节省成本,但显式提示缓存通常需要大量手动操作。
有开发者对 Google 在 Gemini 2.5 Pro 上的显式缓存实现表达了不满,他们表示该实现可能导致 API 费账单意外地高昂。上周关于此问题的抱怨声不断,促使 Gemini 团队公开道歉并承诺进行整改。
与显式缓存相比,隐式缓存是自动执行的。对于 Gemini 2.5 模型,隐式缓存默认开启,如果对模型发出的 Gemini API 请求命中了缓存,则会传递节省的成本。
Google 在博客中解释称:“当你向其中一个 Gemini 2.5 模型发送请求时,如果该请求与之前某次请求共享相同的前缀,则有资格命中缓存。我们将动态地将节省下来的成本返还给你。”
根据 Google 的开发者文档,2.5 Flash 模型隐式缓存的最低提示 Token 数是 1,024,而 2.5 Pro 模型则为 2,048,这个数值并不算太大,也就是说触发这些自动节省所需的条件并不苛刻。Token 是模型处理数据的基本单位,一千 Token 约等于 750 个单词。
鉴于 Google 之前的缓存成本节省声明曾遭遇挫折,这项新功能中也存在一些需要买家注意的地方。首先,Google 建议开发者将重复上下文保留在请求的开头,以提高隐式缓存命中的概率。对于可能在每次请求中变化的上下文,建议在末尾追加。
其次,Google 并未提供任何第三方验证,证明新的隐式缓存系统能实现承诺的自动节省效果。因此,最终效果如何,还需等待早期采用者的反馈。
好文章,需要你的鼓励
生成式AI在电商领域发展迅速,但真正的客户信任来自可靠的购物体验。数据显示近70%的在线购物者会放弃购物车,主要因为结账缓慢、隐藏费用等问题。AI基础设施工具正在解决这些信任危机,通过实时库存监控、动态结账优化和智能物流配送,帮助商家在售前、售中、售后各环节提升可靠性,最终将一次性买家转化为忠实客户。
泰国SCBX金融集团开发的DoTA-RAG系统通过动态路由和混合检索技术,成功解决了大规模知识库检索中速度与准确性难以兼得的难题。系统将1500万文档的搜索空间缩小92%,响应时间从100秒降至35秒,正确性评分提升96%,为企业级智能问答系统提供了实用的技术方案。
存储供应商Qumulo发布多租户架构Stratus,为每个租户提供独立的虚拟环境,通过加密技术和租户专用密钥管理系统实现隔离。该统一文件和对象存储软件支持本地、边缘、数据中心及AWS、Azure等云环境部署。Stratus采用加密隔离技术确保敏感数据安全,同时提供任务关键操作所需的灵活性和效率,帮助联邦和企业客户满足合规要求。
中科院和字节跳动联合开发了VGR视觉锚定推理系统,突破了传统AI只能粗略"看图"的局限。该系统能在推理过程中主动关注图片关键区域,像人类一样仔细观察细节后再得出结论。实验显示VGR在图表理解等任务上性能大幅提升,同时计算效率更高,代表了多模态AI"可视化推理"的重要进展。