AI在线 AI在线

Kimi 长思考模型 API 发布

kimi-thinking-preview 模型是月之暗面提供的具有多模态推理能力和通用推理能力的多模态思考模型,它擅长深度推理。
感谢kimi-thinking-preview 模型是月之暗面提供的具有多模态推理能力和通用推理能力的多模态思考模型,它擅长深度推理。

月之暗面今日宣布,Kimi 长思考模型 API 正式发布

kimi-thinking-preview 模型是目前最新的 k 系列思考模型,用户可以简单地通过更换 model 来使用它,或是通过 openai SDK 来使用。

kimi-thinking-preview 目前仍处于预览版阶段,仍有如下限制:

  • 不支持工具调用(ToolCalls),联网搜索功能也暂不支持

  • 不支持 JSON Mode(即设置 `response_format={"type":"json_object"}`)

  • 不支持 Partial 模式

  • 不支持 Context Caching

注:如果强行对 kimi-thinking-preview 启用以上特性,模型可能会输出预期之外的内容。

AI在线附具体 API 使用文档:

https://platform.moonshot.cn/docs/guide/use-kimi-thinking-preview-model#%E5%A4%9A%E8%BD%AE%E5%AF%B9%E8%AF%9D

相关资讯

推特热帖:k1.5 很牛,因为借鉴了 UCLA 与 CMU 合作团队的这项技术

2025 年 1 月 20 日 Kimi k1.5 正式发布,伴随着技术报告的公布,有网友表示:“这应该是全球范围内,除 OpenAI 之外的公司首次实现 o1 正式版的多模态推理性能了吧! ”一时间,Kimi k1.5 成了话题王者。 但在一个月后的 2 月 24 日,X 上出现了一篇关于 Kimi k1.5 的技术爆料帖,博主直言 k1.5 所用到的强化学习算法,其实是借鉴了自己在 24 年 5 月提出的一种名为 SPPO 的技术。
2/27/2025 2:22:00 PM
郑佳美

Kimi K2高速版发布 输出速度提升至每秒40 Tokens

Kimi开放平台发布Kimi K2 高速版。 新款模型命名为kimi-k2-turbo-preview,参数规模与现有kimi-k2 保持一致,但输出速度由每秒10 Tokens提升至每秒40 Tokens,显著提升使用效率。 此次升级旨在优化用户体验,满足更高实时性需求的应用场景。
8/1/2025 2:12:08 PM
AI在线

Kimi K2 高速版kimi-k2-turbo-preview发布 输出每秒 40 Tokens

kimi-k2-turbo-preview,即Kimi K2高速版正式发布。 据悉,该高速版模型在参数设置上与原版kimi-k2保持一致,但在性能上实现了显著提升,输出速度从原先的每秒10Tokens大幅跃升至每秒40Tokens,为用户带来更加流畅高效的使用体验。 为庆祝Kimi K2高速版的发布,官方特别推出限时5折特惠活动,该优惠将持续至9月1日,之后将恢复原价。
8/1/2025 2:12:12 PM
AI在线
  • 1