AI在线 AI在线

LeCun团队揭示LLM语义压缩本质:统计压缩牺牲细节

当我们读到“苹果”“香蕉”“西瓜”这些词,虽然颜色不同、形状不同、味道也不同,但仍会下意识地归为“水果”。 哪怕是第一次见到“火龙果”这个词,也能凭借语义线索判断它大概也是一种水果。 这种能力被称为语义压缩,它让我们能够高效地组织知识、迅速地对世界进行分类。

当我们读到“苹果”“香蕉”“西瓜”这些词,虽然颜色不同、形状不同、味道也不同,但仍会下意识地归为“水果”。

哪怕是第一次见到“火龙果”这个词,也能凭借语义线索判断它大概也是一种水果。

这种能力被称为语义压缩,它让我们能够高效地组织知识、迅速地对世界进行分类。

那问题来了:大型语言模型(LLM)虽然语言能力惊人,但它们在语义压缩方面能做出和人类一样的权衡吗?

为探讨这一问题,图灵奖得主LeCun团队,提出了一种全新的信息论框架。

该框架通过对比人类与LLM在语义压缩中的策略,揭示了两者在压缩效率与语义保真之间的根本差异:

LLM偏向极致的统计压缩,而人类更重细节与语境。

图片图片

语义压缩对比框架

要实证性地研究LLM的表征方式与人类概念结构之间的关系,需要两个关键要素:

稳健的人类概念分类基准

研究团队基于认知科学中的三项经典研究(Rosch 1973、1975和McCloskey & Glucksberg 1978),构建了一个涵盖1049个项目、34个语义类别的统一基准。

这些数据不仅提供了类别归属信息,还包含人类对各项目“典型性”的评分,反映了人类认知中概念形成的深层结构。

相比现代众包数据,这些经过专家严格设计的数据集更具可信度与解释力,为LLM的类人性评估提供了高保真的比较基础。

多样化的LLM模型选择

为全面评估不同大型语言模型在概念表征上的差异,研究团队选取了30+LLMs(BERT、LlamA、Gemma、Qwen等),参数规模从3亿到720亿不等。

所有模型均从输入嵌入层提取静态词元表示,以贴近人类分类实验中“去上下文”的刺激方式,确保模型和人类的认知基准保持一致,便于公平比较。

为分析LLM与人类在表达和组织语义信息时的差异,研究引入了一个信息论框架。

该框架借鉴了两大经典信息论原理:

  • 速率失真理论:描述压缩效率与信息失真之间的最优权衡;
  • 信息瓶颈原理:关注在压缩表示的同时,最大程度保留与目标相关的信息。

LLM与人类在表征策略上的关键差异

研究发现,LLM的概念分类结果与人类语义分类的对齐程度显著高于随机水平。

这一结果验证了LLM在语义组织方面的基本能力,并为后续更细粒度的语义结构对比奠定了基础。

图片图片

但是大型语言模型真的理解细节吗?

答案是:LLM难以处理细粒度的语义差异。它们的内部概念结构与人类对类别归属的直觉不相符。

图片图片

人类典型性判断与LLM余弦相似度之间的斯皮尔曼相关系数较弱且大多数不显著,表明两者在概念表征结构上存在差异。

那LLM和人类在信息压缩与语义保真上存在哪些关键差异呢?

LLM侧重于统计压缩,力求最大程度地减少冗余信息;而人类则更注重适应性和丰富性,强调保持灵活性和上下文的完整性。

图片图片

研究团队

这项研究由斯坦福大学与纽约大学联合开展,团队成员均来自这两所高校。

其中,第一作者为斯坦福大学博士后研究员Chen Shani。

图片图片

更让网友震惊的的是,Yann LeCun也为此研究的作者之一。

图片图片

图片

Yann LeCun是当今人工智能领域最具影响力的科学家之一,现任 Meta(原 Facebook)首席人工智能科学家,同时也是纽约大学教授。

LeCun早在1980年代便开始研究神经网络,最著名的贡献是提出了卷积神经网络(CNN)的核心架构——LeNet-5,用于手写数字识别。

该网络是现代深度学习模型的雏形,为后续图像识别和计算机视觉技术的发展奠定了坚实基础。

他与Geoffrey Hinton、Yoshua Bengio被誉为“深度学习三巨头”,共同推动了深度学习的理论与应用突破。

2018年,三人因在深度学习领域的杰出贡献,荣获了计算机科学领域的最高奖项——图灵奖。

除了技术创新,LeCun还积极推动深度学习技术在工业界的应用,尤其是在Meta,领导团队将人工智能技术应用于大规模系统。

他同时是自监督学习的积极倡导者,认为这是实现通用人工智能(AGI)的关键路径之一。

可以说,LeCun的研究对人工智能技术的演进产生了重要影响。

论文地址:https://arxiv.org/abs/2505.17117

参考链接:https://x.com/ziv_ravid/status/1928118800139841760

相关资讯

【论文解读】System 2 Attention提高大语言模型客观性和事实性

一、简要介绍 本文简要介绍了论文“System 2 Attention (is something you might need too) ”的相关工作。基于transformer的大语言模型(LLM)中的软注意很容易将上下文中的不相关信息合并到其潜在的表征中,这将对下一token的生成产生不利影响。为了帮助纠正这些问题,论文引入了System 2 Attention(S2A),它利用LLM的能力,用自然语言进行推理,并遵循指示,以决定要处理什么。S2A重新生成输入上下文以使输入上下文只包含相关部分,然后再处理重新
5/11/2024 11:03:00 AM
合合信息

成功率提升15%,浙大、碳硅智慧用LLM进行多属性分子优化,登Nature子刊

编辑 | 萝卜皮优化候选分子的物理化学和功能特性一直是药物和材料设计中的一项关键任务。 虽然人工智能很适合处理平衡多个(可能相互冲突的)优化目标的任务,但是例如多属性标记训练数据的稀疏性等技术挑战,长期以来阻碍了解决方案的开发。 在最新的研究中,浙江大学侯廷军团队、中南大学曹东升团队以及碳硅智慧团队联合开发了一种分子优化工具 Prompt-MolOpt。
10/23/2024 2:06:00 PM
ScienceAI

图灵奖得主LeCun:人类智能不是通用智能,下一代AI可能基于非生成式

在最新一档播客节目中,Meta首席AI科学家&图灵奖得主LeCun发表了如上观点。 他表示,AGI(通用人工智能)一词非常具有误导性,但人类智能本质是非通用的,它非常专业。 更有意思的是,当大家都在谈论生成式AI时,他却凭借直觉大胆预测:下一代AI的突破可能基于非生成式。
4/15/2025 3:43:00 AM
  • 1