AI在线 AI在线

Perplexity CEO 称赞月之暗面,希望基于 Kimi K2 进行后训练

AI在线 7 月 13 日消息,美国 AI 初创公司 Perplexity 的 CEO 阿拉温德(Aravind Srinivas)今日发文称,月之暗面 Kimi K2 模型在测试中良好表现,公司后续可能会基于 K2 进行后训练。 Live Mint 今年 1 月报道显示,此前 DeepSeek R1 也曾被 Perplexity 用于模型训练。 Kimi K2 是月之暗面 Kimi 昨日刚发布的旗下首个万亿参数开源模型,强调代码能力和通用 Agent 任务能力。

AI在线 7 月 13 日消息,美国 AI 初创公司 Perplexity 的 CEO 阿拉温德(Aravind Srinivas)今日发文称,月之暗面 Kimi K2 模型在测试中良好表现,公司后续可能会基于 K2 进行后训练。

Perplexity CEO 称赞月之暗面,希望基于 Kimi K2 进行后训练

Live Mint 今年 1 月报道显示,此前 DeepSeek R1 也曾被 Perplexity 用于模型训练。

Kimi K2 是月之暗面 Kimi 昨日刚发布的旗下首个万亿参数开源模型,强调代码能力和通用 Agent 任务能力。这是一个更擅长通用 Agent 任务的 MoE 架构基础模型,总参数 1T,激活参数 32B。

AI在线从月之暗面官方获悉,Kimi K2 在 SWE Bench Verified、Tau2、AceBench 等基准性能测试中均取得开源模型中的 SOTA 成绩,展现出在代码、Agent、数学推理任务上的领先能力。

相关阅读:

  • 《月之暗面发布旗下首个万亿参数开源模型 Kimi K2,擅长代码与 Agentic 任务》

相关资讯

月之暗面发布 Kimi k1.5 多模态思考模型,实现 SOTA 级多模态推理能力

官方表示,在 short-CoT 模式下,Kimi k1.5 的数学、代码、视觉多模态和通用能力大幅超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平,领先达到 550%。
1/20/2025 10:26:19 PM
清源

月之暗面因 DeepSeek 调整工作重心?内部人士:强化学习或许会是个方向

2 月 15 日下午消息,据媒体报道,月之暗面内部已经将“持续拿到 SOTA 结果”确定为当下最重要的工作目标。2025 年,月之暗面围绕模型能力的关键方向除了继续强化多模态部分外,还会继续强化长文本推理能力。
2/15/2025 4:51:20 PM
凌辰

月之暗面:一年前就验证过长思维链,因成本高先搞了长文本

月之暗面研究员 Flood Sung 近日分享了 k1.5 模型背后的完整思考过程,并透露称,2024 年 9 月 12 号 OpenAI o1 发布带来的震撼效果,令自己陷入了 Long-CoT 的有效性反思中。
2/18/2025 9:15:26 AM
文猛
  • 1