AI在线 AI在线

循环

循环语言模型:提升参数效率的潜在推理新范式

现代大型语言模型(LLM)主要通过显式文本生成方式进行"思考",例如思维链(Chain-of-Thought, CoT),这种方法将推理延迟到训练后阶段,未能充分利用预训练数据。 本文介绍了一种名为Ouro的开源预训练循环语言模型(LoopLM)家族,其命名灵感来自递归的衔尾蛇(Ouroboros),通过三种关键创新将推理能力直接构建到预训练阶段:(1)潜在空间中的迭代计算,(2)用于学习深度分配的熵正则化目标函数,以及(3)扩展到7.7万亿token的训练规模。 核心创新与技术亮点Ouro模型展现了卓越的参数效率,其1.4B和2.6B参数规模的模型性能可以匹配甚至超越12B参数的SOTA模型。
11/4/2025 1:43:00 AM
可可

超越思维链?深度循环隐式推理引爆AI圈,LLM扩展有了新维度

不需要特殊训练数据,能处理语言难以形容的任务,3.5B 参数能实现 50B 的性能。 这是一种全新的语言模型架构,能够通过使用循环语言模型在潜在空间中隐式推理,显著提升模型的计算效率,尤其是在需要复杂推理的任务上。 近日,马里兰大学的一篇论文在 AI 研究社区中引发了关注,其提出的语言模型通过迭代循环块来工作,能在测试时展开到任意深度。
2/12/2025 2:22:00 PM
机器之心