AI在线 AI在线

商汤NEO开源:用1/10数据量媲美顶级多模态模型,终结"拼凑式"AI时代

商汤科技与南洋理工大学S-Lab联合发布并开源全新多模态模型架构NEO,通过底层架构创新实现视觉与语言的深层统一,在性能、效率和通用性上取得全面突破。 极致数据效率:1/10数据量达顶尖性能NEO最显著的突破在于其极高的数据效率——仅需3.9亿图像文本示例,相当于业界同等性能模型1/10的数据量,便能开发出顶尖的视觉感知能力。 无需依赖海量数据及额外视觉编码器,NEO凭借简洁架构在多项视觉理解任务中追平Qwen2-VL、InternVL3等顶级模块化旗舰模型。

商汤科技与南洋理工大学S-Lab联合发布并开源全新多模态模型架构NEO,通过底层架构创新实现视觉与语言的深层统一,在性能、效率和通用性上取得全面突破。

极致数据效率:1/10数据量达顶尖性能

NEO最显著的突破在于其极高的数据效率——仅需3.9亿图像文本示例,相当于业界同等性能模型1/10的数据量,便能开发出顶尖的视觉感知能力。无需依赖海量数据及额外视觉编码器,NEO凭借简洁架构在多项视觉理解任务中追平Qwen2-VL、InternVL3等顶级模块化旗舰模型。

在MMMU、MMB、MMStar、SEED-I、POPE等多项公开权威评测中,NEO均斩获高分,综合性能优于其他原生VLM,真正实现了原生架构"精度无损"。

商汤NEO开源:用1/10数据量媲美顶级多模态模型,终结"拼凑式"AI时代

从底层打破"拼凑式"设计桎梏

当前业内主流多模态模型大多遵循"视觉编码器+投影器+语言模型"的模块化范式。这种基于大语言模型的扩展方式虽然实现了图像输入兼容,但本质上仍以语言为中心,图像与语言的融合仅停留在数据层面。这种"拼凑"式设计不仅学习效率低下,更限制了模型在复杂多模态场景下的处理能力,尤其是涉及图像细节捕捉或复杂空间结构理解的任务。

NEO则通过在注意力机制、位置编码和语义映射三个关键维度的底层创新,让模型天生具备统一处理视觉与语言的能力。

两大核心技术创新

原生图块嵌入(Native Patch Embedding):NEO摒弃了离散的图像tokenizer,通过独创的Patch Embedding Layer(PEL)自底向上构建从像素到词元的连续映射。这种设计能更精细地捕捉图像细节,从根本上突破了主流模型的图像建模瓶颈。

原生多头注意力(Native Multi-Head Attention):针对不同模态特点,NEO在统一框架下实现了文本token的自回归注意力和视觉token的双向注意力并存。这种设计极大提升了模型对空间结构关联的利用率,从而更好地支撑复杂的图文混合理解与推理。

相关资讯

CVPR 2024 | 跳舞时飞扬的裙摆,AI也能高度还原了,南洋理工提出动态人体渲染新范式

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]。在日常活动中,人的运动经常引起衣服的附属运动 (secondary motion of clothes) 并因此产生不同的衣服褶皱,而这需要对人体及衣服的几何、运动(人体姿态及速度动力学
4/22/2024 11:10:00 AM
机器之心

多模态模型评测框架lmms-eval发布!全面覆盖,低成本,零污染

AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]随着大模型研究的深入,如何将其推广到更多的模态上已经成为了学术界和产业界的热点。最近发布的闭源大模型如 GPT-4o、Claude 3.5 等都已经具备了超强的图像理解能力,LLaVA-N
8/21/2024 2:41:00 PM
机器之心

南洋理工揭露AI「运行安全」的全线崩溃,简单伪装即可骗过所有模型

本文的第一作者雷京迪是南洋理工大学博士生,其研究聚焦于大语言模型,尤其关注模型推理、后训练与对齐等方向。 通讯作者 Soujanya Poria 为南洋理工大学电气与电子工程学院副教授。 论文的其他合作者来自 Walled AI Labs、新加坡资讯通信媒体发展局 (IMDA) 以及 Lambda Labs。
10/17/2025 1:34:00 PM
机器之心