AI在线 AI在线

DeepSeek-V3 发布新论文,揭示低成本大模型训练的奥秘

近日,DeepSeek 团队发布了关于其最新模型 DeepSeek-V3的一篇技术论文,重点讨论了在大规模人工智能模型训练中遇到的 “扩展挑战” 以及与硬件架构相关的思考。 这篇长达14页的论文不仅总结了 DeepSeek 在开发 V3过程中的经验与教训,还为未来的硬件设计提供了深刻的见解。 值得注意的是,DeepSeek 的 CEO 梁文锋也参与了论文的撰写。

近日,DeepSeek 团队发布了关于其最新模型 DeepSeek-V3的一篇技术论文,重点讨论了在大规模人工智能模型训练中遇到的 “扩展挑战” 以及与硬件架构相关的思考。这篇长达14页的论文不仅总结了 DeepSeek 在开发 V3过程中的经验与教训,还为未来的硬件设计提供了深刻的见解。值得注意的是,DeepSeek 的 CEO 梁文锋也参与了论文的撰写。

image.png

论文地址:https://arxiv.org/pdf/2505.09343

该研究表明,当前大语言模型(LLM)的迅速扩展暴露了现有硬件架构的许多局限性,比如内存容量、计算效率和互连带宽。DeepSeek-V3在2048块 NVIDIA H800GPU 集群上训练,通过有效的硬件感知模型设计,克服了这些限制,实现了经济高效的大规模训练和推理。

image.png

论文中提出了几个关键点。首先,DeepSeek-V3采用了先进的 DeepSeekMoE 架构和多头潜在注意力(MLA)架构,极大地提高了内存效率。MLA 技术通过压缩键值缓存,显著降低了内存使用,使得每个 token 只需70KB 的内存,相比其他模型大幅减少。

其次,DeepSeek 还实现了成本效益的优化。通过其混合专家(MoE)架构,DeepSeek-V3在激活参数的数量上实现了显著的降低,训练成本相比于传统密集模型降低了一个数量级。此外,该模型在推理速度上也进行了优化,采用双微批次重叠架构来最大化吞吐量,确保 GPU 资源得到充分利用。

DeepSeek 在未来硬件设计方面提出了创新的思考。他们建议通过联合优化硬件和模型架构,来应对 LLM 的内存效率、成本效益和推理速度三大挑战。这为日后的 AI 系统开发提供了宝贵的参考。

相关资讯

DeepSeek 开源 V3/R1 架构设计思路,原来 545% 的利润率,它也只是被逼无奈?

开源周的最后一天,DeepSeek分享了DeepSeek-V3/R1的架构设计思路,让大家能够更系统更全面的了解其推理系统的设计过程,以及更深刻的理解之前开源的6个项目。 DeepSeek-V3/R1推理系统的核心目标是什么? 通过软件架构的优化,达到:更高的吞吐量;更低的延时;为什么DeepSeek要走这一条路?
3/20/2025 9:00:00 AM
架构师之路

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。
1/29/2025 6:43:00 PM
机器之心

DeepSeek-V3新论文:软硬协同,砸碎“算力神话”!

当AI大模型越来越“吃”硬件,把内存、算力、带宽逼到极限,追赶者们,或者说整个行业,除了干等硬件升级,还能怎么办? ChatGPT横空出世,大模型竞赛白热化。 英伟达的GPU成了硬通货,算力就是一切。
5/21/2025 2:01:22 PM
  • 1