AI在线 AI在线

Scaling Laws for Code

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航、人大和九坤投资共同撰写的论文 《Scaling Laws for Code: Every Programming Language Matters》 整理而成。 在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。 然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。
12/24/2025 5:56:00 PM
机器之心