AI在线 AI在线

​小红书发布首个开源大模型dots.llm1:11.2 万亿非合成数据助力中文性能提升

小红书近日宣布开源其首个大规模模型 ——dots.llm1,该模型具有1420亿个参数,是一种专家混合模型(MoE)。 其设计的一个显著特点是,在推理过程中仅激活140亿参数,这种结构不仅保持了高性能,还大幅降低了训练和推理的成本。 dots.llm1使用了11.2万亿个非合成的高质量训练数据,这在当前开源大模型中显得非常罕见,表明小红书在语言处理方面的强大资源。

小红书近日宣布开源其首个大规模模型 ——dots.llm1,该模型具有1420亿个参数,是一种专家混合模型(MoE)。其设计的一个显著特点是,在推理过程中仅激活140亿参数,这种结构不仅保持了高性能,还大幅降低了训练和推理的成本。

image.png

dots.llm1使用了11.2万亿个非合成的高质量训练数据,这在当前开源大模型中显得非常罕见,表明小红书在语言处理方面的强大资源。该模型在中文测试中的表现优异,平均得分91.3,超越了多款竞争对手,如 DeepSeek 的 V2、V3和阿里巴巴的 Qwen2.5系列。

在技术架构方面,dots.llm1采用了单向解码器 Transformer 结构,并将传统前馈网络替换为 MoE。与传统模型不同,MoE 将多个专家网络分开,每个专家网络专注于输入数据的不同特征,从而在推理时只激活一小部分网络进行计算,大幅度节省了算力需求。

具体来说,dots.llm1包含128个路由专家和2个共享专家。每个专家都是一个具有两层前馈结构的网络,使用 SwiGLU 激活函数以捕捉数据中的复杂关系。在处理输入标记时,模型会动态选择出6个最相关的专家和2个共享专家进行运算。

此外,dots.llm1在训练过程中还引入了改进的 RMSNorm 归一化操作,以稳定模型性能和输出。在 MoE 模块中,负载平衡策略的引入确保了所有专家网络的使用均衡,从而避免了过度依赖某些专家的问题。

为了提升模型的训练效率,dots.llm1还使用了 AdamW 优化器,这一优化算法能有效防止模型过拟合并控制梯度爆炸。

数据处理是训练大模型的关键,dots.llm1经过了严格的三级数据处理流水线,确保了训练数据的高质量。经过一系列的过滤和处理,最终形成了11.2万亿个高质量 token 的训练数据。此外,小红书还开源了每1万亿 token 的中间训练检查点,促进学术研究的进一步发展。

开源地址:https://huggingface.co/rednote-hilab/dots.llm1.base/tree/main

划重点:  

🌟 dots.llm1是小红书开源的首个大模型,采用1420亿参数的专家混合结构。  

📊 模型使用了11.2万亿个非合成数据,在中文测试中表现优越。  

🔍 通过严格的数据处理流水线,确保了高质量训练数据的有效性和可靠性。

相关资讯

小红书重磅出击!全新开源大模型 “dots.llm1” 震撼登场,参数量达 1420 亿!

近日,小红书的 hi lab 团队正式推出了其首个开源文本大模型 ——dots.llm1。 这一新模型以其卓越的性能和庞大的参数量引起了业界的广泛关注。 dots.llm1是一款大规模的混合专家(MoE)语言模型,拥有惊人的1420亿个参数,其中激活参数达到140亿。
6/10/2025 6:00:56 PM
AI在线

Xiaohongshu makes a major move! The all-new open-source large model dots.llm1震撼登场 with 142 billion parameters!

Recently, the hi lab team of Xiaohongshu officially released its first open-source text large model — dots.llm1. This new model has attracted extensive attention in the industry due to its outstanding performance and massive number of parameters.dots.llm1 is a large-scale Mixture of Experts (MoE) language model with an impressive 142 billion parameters, including 14 billion activated parameters. After being trained on 11.2 TB of high-quality data, this model's performance can rival Alibaba's Qwen2.5-72B.
6/16/2025 9:48:52 AM
AI在线

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。基于此,来自北京大学、中山大学等机构的研究者联合提出了一种新颖的 LVLM 训练策略 ——MoE-Tuning。MoE-Tuning 可以构建参数数量惊人但计算成本恒定的稀疏模型,并有效解决通常与多模态学习和模型稀疏性相关的性能下降问题。该研究还提出了一种基于 MoE 的新型稀疏 LVLM 架构 ——MoE-LLaVA 框架。该框架独特地在部署过程中通过路
1/31/2024 3:01:00 PM
机器之心
  • 1