AI在线 AI在线

月之暗面 Kimi 开放平台将启动 Context Caching 内测:提供预设内容 QA Bot、固定文档集合查询

月之暗面官宣 Kimi 开放平台 Context Caching 功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能。▲ 图源 Kimi 开放平台官方公众号,下同据介绍,Context Caching(上下文缓存)是由 Kimi 开放平台提供的一项高级功能,可通过缓存重复的 Tokens 内容,降低用户在请求相同内容时的成本,原理如下:官方表示,Context Caching 可提升 API 的接口响应速度(或首字返回速度)。在规模化、重复度高的 prompt 场景,Context Caching 功能带

月之暗面官宣 Kimi 开放平台 Context Caching 功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能

图片

▲ 图源 Kimi 开放平台官方公众号,下同

据介绍,Context Caching(上下文缓存)是由 Kimi 开放平台提供的一项高级功能,可通过缓存重复的 Tokens 内容,降低用户在请求相同内容时的成本,原理如下:

图片

官方表示,Context Caching 提升 API 的接口响应速度(或首字返回速度)。在规模化、重复度高的 prompt 场景,Context Caching 功能带来的收益越大。

Context Caching 适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用,适用业务场景如下:

提供大量预设内容的 QA Bot,例如 Kimi API 小助手。

针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具。

对静态代码库或知识库的周期性分析,例如各类 Copilot Agent。

瞬时流量巨大的爆款 AI 应用,例如哄哄模拟器,LLM Riddles。

交互规则复杂的 Agent 类应用,例如什么值得买 Kimi+ 等。

官方后续将发布 Context Caching 功能的场景最佳实践 / 计费方案 / 技术文档,IT之家将保持关注,并在第一时间带来相关报道。

相关资讯

Kimi K2高速版发布 输出速度提升至每秒40 Tokens

Kimi开放平台发布Kimi K2 高速版。 新款模型命名为kimi-k2-turbo-preview,参数规模与现有kimi-k2 保持一致,但输出速度由每秒10 Tokens提升至每秒40 Tokens,显著提升使用效率。 此次升级旨在优化用户体验,满足更高实时性需求的应用场景。
8/1/2025 2:12:08 PM
AI在线

Kimi K2 高速版kimi-k2-turbo-preview发布 输出每秒 40 Tokens

kimi-k2-turbo-preview,即Kimi K2高速版正式发布。 据悉,该高速版模型在参数设置上与原版kimi-k2保持一致,但在性能上实现了显著提升,输出速度从原先的每秒10Tokens大幅跃升至每秒40Tokens,为用户带来更加流畅高效的使用体验。 为庆祝Kimi K2高速版的发布,官方特别推出限时5折特惠活动,该优惠将持续至9月1日,之后将恢复原价。
8/1/2025 2:12:12 PM
AI在线

一文读懂MCP与AI工具生态的未来,它会是AI智能体的「万能插头」吗?

如今,随着基础模型变得越来越智能,人们越来越需要有一个用于执行、数据获取和工具调用的标准接口。 自 OpenAI 在 2023 年发布函数调用功能以来,AI 智能体与外部工具、数据和 API 的交互能力却日益碎片化:开发者需要为智能体在每个系统中的操作和集成实现特定的业务逻辑。 显然,执行、数据获取和工具调用需要一个标准接口。
3/25/2025 11:24:00 AM
机器之心
  • 1