AI在线 AI在线

英伟达推出 Nemotron 3:混合架构提升 AI 代理处理效率

英伟达近日发布了其全新的 Nemotron 3 系列,这一系列产品结合了 Mamba 和 Transformer 两种架构,旨在高效处理长时间上下文窗口,同时减少资源消耗。 Nemotron 3 系列专为基于代理的人工智能系统设计,这类系统能够自主执行复杂任务,持续进行长时间的交互。 新产品系列包括三个型号:Nano、Super 和 Ultra。

英伟达近日发布了其全新的 Nemotron 3 系列,这一系列产品结合了 Mamba 和 Transformer 两种架构,旨在高效处理长时间上下文窗口,同时减少资源消耗。Nemotron 3 系列专为基于代理的人工智能系统设计,这类系统能够自主执行复杂任务,持续进行长时间的交互。

新产品系列包括三个型号:Nano、Super 和 Ultra。当前 Nano 型号已正式上市,而 Super 和 Ultra 预计将在 2026 年上半年推出。英伟达在这次发布中打破了传统的纯 Transformer 架构,采用了一种混合架构,这种架构将高效的 Mamba 层与 Transformer 元素及混合专家(MoE)技术相结合。与传统的纯 Transformer 模型相比,Nemotron 3 能更好地处理长输入序列,同时保持内存使用稳定。

Nemotron 3 支持高达一百万个令牌的上下文窗口,这使其与 OpenAI 和 Google 等前沿模型相匹配,可以在不对硬件造成过大压力的情况下,存储大量的信息,比如整个代码库或长时间的对话历史。Nano 型号具有 316 亿个参数,但在每个处理步骤中,只有 30 亿个参数处于激活状态。根据人工智能分析指数(AII)的基准测试,Nemotron 3 在准确率上可与 gpt-oss-20B 和 Qwen3-30B 相媲美,并且在令牌吞吐量上表现更为出色。

英伟达还为更强大的 Super 和 Ultra 型号引入了两项重要架构改进。第一项是 LatentMoE,它旨在解决标准 MoE 模型中内存带宽的开销问题,允许系统在处理令牌之前将其投影到压缩的潜在表示中。第二项改进是多词元预测(MTP)技术,在训练过程中可以同时预测多个词元,从而提高文本生成速度和逻辑推理能力。

此外,英伟达发布了 Nano 型号的权重、训练方案和多个数据集,包括基于 Common Crawl 的 Nemotron-CC-v2.1 等,这为开发者提供了强大的支持。此次发布符合英伟达致力于开发更小型语言模型的战略,以优先考虑速度而非原始性能。

划重点:  

🌟 Nemotron 3 系列结合 Mamba 和 Transformer 架构,提升 AI 代理处理效率。  

🚀 Nano 型号已上市,Super 和 Ultra 预计于 2026 年上半年推出。  

📊 英伟达发布模型权重和训练数据集,助力开发者创新。

相关资讯

长视频理解新突破!Mamba混合架构让显存消耗腰斩,处理10万视频token不费力

长视频理解新突破!Mamba混合架构让显存消耗腰斩,处理10万视频token不费力

Mamba混合架构视频模型来了,不再对视频token进行压缩——而是通过改进模型架构设计的方式提升模型在训练及推理预填充阶段处理视频token的效率。 图片滑铁卢大学陈文虎团队与多伦多大学、零一万物、向量学院以及M-A-P的研究人员提出了一种新的Mamba-Transformer混合模型Vamba。 图片通过大量实验验证,研究团队发现Vamba在同等硬件条件下可处理的视频帧数较传统Transformer架构提升4倍,训练内存消耗降低50%以上,并且可实现单步训练速度的翻倍。
3/27/2025 12:20:25 PM
1.5倍长上下文突破:Meta混合架构如何重塑语言模型效率边界

1.5倍长上下文突破:Meta混合架构如何重塑语言模型效率边界

大家好,我是肆〇柒。 我最近看到一篇来自Meta AI研究团队的系统性分析——《Hybrid Architectures for Language Models: Systematic Analysis and Design Insights》。 这项由Meta的Sangmin Bae、Bilge Acun等工程师主导的研究,首次全面比较了层间混合与层内混合两类策略,揭示了混合架构如何突破语言模型的效率-质量权衡,特别在长上下文任务中实现1.5倍预训练长度的检索能力。
10/27/2025 9:38:26 AM 肆零柒
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

鱼羊 发自 凹非寺. 量子位 | 公众号 QbitAITransformer的提出者谷歌,刚刚上来给了Transformer梆梆就两拳(doge)。 两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。
12/5/2025 6:48:55 PM 鱼羊