AI在线 AI在线

Gemini API推出隐式缓存功能,开发者成本降低75%

Gemini API推出隐式缓存(Implicit Caching)功能,为开发者带来显著的成本优化体验。 新功能无需开发者手动创建缓存,当请求与先前请求共享共同前缀时,系统将自动触发缓存命中,提供高达75%的Token折扣。 此更新已覆盖Gemini2.5Pro和2.5Flash模型,进一步提升了AI开发的成本效益。

Gemini API推出隐式缓存(Implicit Caching)功能,为开发者带来显著的成本优化体验。新功能无需开发者手动创建缓存,当请求与先前请求共享共同前缀时,系统将自动触发缓存命中,提供高达75%的Token折扣。此更新已覆盖Gemini2.5Pro和2.5Flash模型,进一步提升了AI开发的成本效益。官方详情可参考:https://developers.googleblog.com

核心机制:自动缓存与动态折扣

隐式缓存功能通过识别请求中的共同前缀,自动复用先前处理过的上下文数据,减少重复计算的Token消耗。例如,开发者在构建聊天机器人或代码分析工具时,常需重复发送相同的系统指令或大型数据集,隐式缓存可将这些内容自动存储并以更低的成本调用。AIbase了解到,为增加缓存命中率,Google建议开发者将固定内容置于请求开头,动态内容(如用户问题)置于末尾。社交媒体反馈显示,开发者对这一功能的自动化设计和成本节约效果表示高度认可。

222.jpg

技术细节与开发者福利

根据官方数据,隐式缓存的最小请求Token要求已大幅降低,Gemini2.5Flash为1024Token,2.5Pro为2048Token,约相当于750至1500字的文本,显著提高了缓存触发的可能性。开发者无需额外配置即可享受折扣,API返回的usage_metadata中会明确显示缓存Token数量(cached_content_token_count),确保计费透明。此外,Google保留了显式缓存API,供需要保证成本节约的场景使用。AIbase编辑团队认为,隐式缓存的推出为中小型开发团队提供了更低门槛的AI开发机会。

应用场景与行业影响

隐式缓存功能特别适用于高频重复上下文的场景,例如:

自定义聊天机器人:无需重复发送长提示,降低运营成本;

代码库分析:高效处理大型代码库的重复请求;

文档处理:加速对长篇文档的问答或总结任务。

AIbase观察到,Gemini API的此次更新正值AI开发成本竞争加剧的背景,OpenAI和Anthropic等竞品也在优化其API定价。Google通过隐式缓存进一步巩固了Gemini在成本效率和开发友好性上的优势。社交媒体讨论指出,该功能可能推动更多开发者将Gemini集成到生产环境中,尤其是在预算敏感的项目中。

AI开发的成本革命

Gemini隐式缓存功能的发布标志着AI开发向更高效、更经济的方向迈进。AIbase编辑团队预计,随着Google持续优化缓存机制(如降低延迟或扩展缓存场景),Gemini API将在聊天机器人、RAG系统和多模态应用中获得更广泛采用。未来,隐式缓存可能与其他功能(如代码执行或多模态处理)结合,进一步提升开发者的生产力。

相关资讯

Google Gemini API迎来隐式缓存功能 自动节省开发成本高达75%

近期,Google 宣布在其 Gemini API 中推出一项新功能 —— 隐式缓存。 这一功能旨在帮助第三方开发者在使用最新 AI 模型时节省成本,最高可达75% 的费用节约,尤其是在处理重复性上下文时效果显著。  隐式缓存的工作原理隐式缓存的核心在于,它能够自动识别并重用之前请求中相似的内容。
5/9/2025 10:01:42 AM
AI在线

如何使用 Gemini API 构建视频字幕生成器

译者 | 崔皓审校 | 重楼开篇在本教程中,你将使用 Google 的 Gemini API 构建人工智能驱动的字幕生成器。 我们将创建一个名为“AI-Subtitle-Generator”的项目,该项目的前端使用 React,后端使用 Express。 准备好了吗?
12/23/2024 8:00:00 AM
崔皓

字节Seed 团队推出 PHD-Transformer,成功扩展预训练长度,解决 KV 缓存问题!

近日,字节跳动的 Seed 团队在人工智能领域再传佳音,推出了一种新型的 PHD-Transformer(Parallel Hidden Decoding Transformer),这项创新突破了预训练长度的限制,有效解决了推理过程中的 KV 缓存膨胀问题。 随着大型推理模型的迅速发展,研究人员在后训练阶段尝试通过强化学习方法来生成更长的推理链,并在复杂的推理任务上取得了显著成果。 受到启发,字节 Seed 团队决定探索在预训练阶段进行长度扩展的可能性。
4/28/2025 5:00:40 PM
AI在线
  • 1