AI在线 AI在线

英伟达发布 Llama Nemotron Nano VL AI:高效精准,攻克复杂文档解析难题

Llama Nemotron Nano VL 融合了 CRadioV2-H 视觉编码器和 Llama 3.1 8B 指令微调语言模型,能同时处理多页文档中的视觉和文本元素,支持最长 16K 的上下文长度,覆盖图像和文本序列。

科技媒体 marktechpost 昨日(6 月 4 日)发布博文,报道称英伟达(Nvidia)针对高效、精准地处理文档级理解任务,推出 Llama Nemotron Nano VL 视觉-语言模型(VLM)。

Llama Nemotron Nano VL 基于 Llama 3.1 架构,融合了 CRadioV2-H 视觉编码器和 Llama 3.1 8B 指令微调语言模型,能同时处理多页文档中的视觉和文本元素,支持最长 16K 的上下文长度,覆盖图像和文本序列。

模型通过投影层和旋转位置编码实现视觉-文本对齐,优化了 token 效率,特别适合长篇多模态任务,无论是多图像输入还是复杂文本解析,它都能游刃有余。

英伟达发布 Llama Nemotron Nano VL AI:高效精准,攻克复杂文档解析难题

该模型的训练分为三个阶段:首先,利用商业图像和视频数据集进行交错式图文预训练;其次,通过多模态指令微调提升交互式提示能力;最后,重新混合纯文本指令数据以优化在标准语言模型基准上的表现。

英伟达发布 Llama Nemotron Nano VL AI:高效精准,攻克复杂文档解析难题

训练采用英伟达的 Megatron-LLM 框架和 Energon 数据加载器,依托 A100 和 H100 GPU 集群完成。在 OCRBench v2 基准测试中,该模型在 OCR、表格解析和图表推理等任务上取得领先精度,尤其在结构化数据提取(如表格和键值对)及布局相关问题解答中表现突出,媲美更大规模模型。

英伟达发布 Llama Nemotron Nano VL AI:高效精准,攻克复杂文档解析难题

部署方面,Llama Nemotron Nano VL 设计灵活,支持服务器和边缘推理场景。英伟达提供了 4-bit 量化版本(AWQ),结合 TinyChat 和 TensorRT-LLM 实现高效推理,兼容 Jetson Orin 等受限环境。

模型还支持 Modular NIM(NVIDIA 推理微服务)、ONNX 和 TensorRT 导出,此外英伟达通过预计算视觉嵌入选项,进一步降低静态图像文档处理的延迟,为企业应用提供了实用解决方案。

AI在线附上参考地址

  • New NVIDIA Llama Nemotron Nano Vision Language Model Tops OCR Benchmark for Accuracy

  • NVIDIA AI Releases Llama Nemotron Nano VL: A Compact Vision-Language Model Optimized for Document Understanding

相关资讯

英伟达推 DAM-3B 模型:突破局部描述难题,让 AI 看懂图像 / 视频每一个角落

NVIDIA最新发布Describe Anything 3B(DAM-3B)模型,专门针对图像和视频中特定区域的详细描述难题设计。这款多模态大语言模型能通过点、边界框、涂鸦或掩码等方式锁定目标区域,生成贴合上下文的描述文本。
4/24/2025 1:40:26 PM
故渊

比英伟达工程师还熟练!DeepSeek R1+测试时Scaling自动优化GPU内核

本周英伟达的一篇技术博客引发了业界震动! 英伟达的团队尝试利用DeepSeek-R1和推理时扩展实现GPU内核生成自动化,效果极佳。 随着AI模型的扩展,推理时扩展(inference-time scaling),也叫测试时扩展(test-time scaling)正闪亮登场。
2/17/2025 9:10:00 AM
新智元

黄仁勋:感谢DeepSeek!英伟达财报破纪录,Blackwell开卖血赚800亿老黄笑疯

就在刚刚,英伟达公布财报。 那一刻,全世界都在观望。 出人意料的是,英伟达2025财年第四季度,情况一片大好,并未受DeepSeek影响!
2/28/2025 8:20:00 AM
新智元
  • 1