AI在线 AI在线

独家丨MiniMax 高级研究总监钟怡然已于半年前离职

据公开资料显示,钟怡然博士毕业于澳大利亚国立大学,师从李宏东教授与 Richard Hartley 院士。 并曾在国际权威期刊及顶级学术会议上累计发表了 40 余篇研究论文,涵盖 TPAMI、IJCV、IEEE TIP、CVPR、NeurIPS、ECCV、ICCV、ICLR、EMNLP 等领域,且持有多项美国专利。 钟怡然的科研成果在学术界与产业界都受到了广泛关注,相关论文累计被引用近 2000 次。

据公开资料显示,钟怡然博士毕业于澳大利亚国立大学,师从李宏东教授与 Richard Hartley 院士。并曾在国际权威期刊及顶级学术会议上累计发表了 40 余篇研究论文,涵盖 TPAMI、IJCV、IEEE TIP、CVPR、NeurIPS、ECCV、ICCV、ICLR、EMNLP 等领域,且持有多项美国专利。

钟怡然的科研成果在学术界与产业界都受到了广泛关注,相关论文累计被引用近 2000 次。还曾获的 2023 年 ICCV Workshop 最佳论文奖以和 2014 年 ICIP 最佳学生论文奖。

博士毕业后,钟怡然于 2021 年加入商汤科技,担任高级经理,负责大语言模型、多轮对话及多模态融合方向的研究。随后在 2022 年,以青年科学家的身份加入上海人工智能实验室,担任新架构探索组的 PI,OpenNLPLab负责人,专注于高效的大语言模型和视听语言多模态融合。

2023 年底,钟怡然在 MiniMax 就大模型的高效架构方向提出构想,与研发团队共同推进线性注意力机制在大规模语言模型中的应用。

2024 年,团队正式启动 MiniMax-01 项目,由钟怡然担任项目负责人,全面主导模型的架构设计与研发工作。经过近一年的迭代与优化,MiniMax 于 2025 年初正式发布基于 Lightning Attention 架构的 MiniMax-01 模型。

该模型一经推出便在业界引发广泛关注,被普遍认为是一款具有突破性意义的大语言模型。MiniMax-01 在超长上下文处理能力方面表现尤为突出,采用团队自主研发的 Lightning Attention 架构,通过线性或近线性注意力机制,大幅提升了模型在长序列输入下的计算效率与可扩展性,有效突破了传统 Transformer 在复杂度上的性能瓶颈。

总体而言,业内普遍认为 MiniMax-01 在大模型的架构创新与效率优化方面走出了一条独特路径,代表了“高效长上下文建模”方向的重要技术进展。

作为成就这一成果的核心人物之一,钟怡然在项目中发挥了关键作用。他带领团队完成了从理论创新到工程落地的全过程,推动 Lightning Attention 成为业内关注的焦点,为 MiniMax 的技术体系奠定了基础。

相关资讯

MiniMax-M1开源!1M超长上下文推理,AI新王者仅53万美元打造!

中国AI公司MiniMax正式宣布开源其最新大型语言模型(LLM)MiniMax-M1,该模型以超长上下文推理能力和高效训练成本引发全球关注。 AIbase整理最新信息,为您带来MiniMax-M1的全面解读。 创纪录的上下文窗口:1M输入,80k输出MiniMax-M1以其惊人的100万token输入和8万token输出的上下文窗口,成为目前开源模型中最擅长长上下文推理的佼佼者。
6/17/2025 10:02:37 AM
AI在线

全球领先水平!MiniMax开源首个推理模型M1

不知道还有多少人记得,AI 行业的六小虎。 行业内都在说,他们已经沉寂好久了。 上一次相关的项目发布,还是前一段时间我写的 MiniMax 声音模型的更新,Speech-02。
6/18/2025 7:42:52 AM
数字生命卡兹克

MiniMax 推出全球首个开源混合架构模型 M1,强化训练成本大幅降低!

6月17日,上海的 AI 独角兽公司 MiniMax 发布了其全新研发的 MiniMax-M1系列模型,号称是全球首个开源的大规模混合架构推理模型。 这个创新的模型在上下文处理能力和成本控制方面都取得了显著的突破。 MiniMax-M1模型的最大亮点在于其原生支持高达100万 Token 的上下文窗口,甚至在推理输出上支持业内最长的8万 Token。
6/18/2025 10:01:54 AM
AI在线
  • 1