AI在线 AI在线

Meta科学家LeCun:当前 AI 模型缺乏四项关键人类智能特质

在巴黎举行的AI行动峰会上,Meta首席AI科学家Yann LeCun提出一个问题:“什么才是智能的基本构成? ”在与IBM AI负责人Anthony Annunziata的对话中,他提出四项标准:理解物理世界、拥有持续的记忆、具备推理能力,以及可以进行分层规划。 这四项能力在LeCun看来,是任何一种具备智能的生命体所共有的基础能力。

在巴黎举行的AI行动峰会上,Meta首席AI科学家Yann LeCun提出一个问题:“什么才是智能的基本构成?”

在与IBM AI负责人Anthony Annunziata的对话中,他提出四项标准:理解物理世界、拥有持续的记忆、具备推理能力,以及可以进行分层规划。

这四项能力在LeCun看来,是任何一种具备智能的生命体所共有的基础能力。相比之下,当前主流人工智能系统,尤其是以语言模型为代表的架构,在这些方面仍显不足。

这不是他第一次表达类似看法。作为深度学习早期的关键推动者,LeCun一直在强调当前模型能力的局限性。

他一直认为,现有AI模型在“智能”的核心能力上存在结构性缺陷。

“补丁式增强”与架构争议

LeCun指出,目前业界在提升AI功能时,往往采用“组合式”的增强路径。例如,为了让语言模型理解视觉信息,就外接一个视觉系统;为了让模型“记住”过往内容,就增加检索增强生成(RAG)模块;推理能力不足,则通过扩大模型参数来弥补。

在他看来,这些做法更像是“功能层的修补”,而非能力本身的根本突破。

“理解世界不是把一个视觉模型绑在语言模型上那么简单,”LeCun说。他用“hack(补丁)”一词来形容这种工程式集成方式。

Meta近年来持续投入的“世界模型”(world-based models)思路,正是对这种路径的回应。这一类模型的目标不在于生成内容,而是试图建立一种内部的世界表示,通过预测行为与结果之间的关系来实现认知。

LeCun对此有一个具体的定义框架:“你有对世界某一状态的理解,你想象一个可能的动作,然后模型预测在该动作之后,世界会发生什么。”这类似于一种面向动态系统的因果建模方式。

图注:V-JEPA论文:重访特征预测:从视频中学习视觉表征的方法图注:V-JEPA论文:重访特征预测:从视频中学习视觉表征的方法

Meta在2024年发布的V-JEPA模型,是上述思路的初步实现。该模型并非直接生成图像或视频内容,而是试图在抽象层面预测视频中被遮挡或缺失的信息。这种方式类似“填空”,但预测发生在更高层级的表示空间,而非具体像素。

LeCun解释说:“我们不预测像素,而是在抽象表示中进行预测。理想情况下,这种表示会自动过滤掉那些不可预测或无关的细节。”

这一构想与科学研究中“抽象层级”建立的过程相似。正如物理学中通过粒子、原子、分子、材料的层层抽象来理解世界,LeCun认为,AI系统也需要通过构建中间表征来实现有效的认知与推理。

这种方式的优点之一在于,它减少了对海量数据的依赖,并提升了系统对不可预测变化的适应能力。不过,V-JEPA目前仍处于早期阶段,其抽象层级的表达力、泛化能力和可交互性仍需进一步验证。

对主流路径的间接回应

当前,几乎所有主流AI企业都在围绕大模型展开产品构建与能力扩展。OpenAI、Anthropic、Google DeepMind的研究路线大多围绕大语言模型展开,通过RAG、多模态融合或系统集成来增强模型在记忆、推理等方面的表现。

在这个语境下,LeCun所倡导的“世界模型”策略,可以视为对主流趋势的补充乃至修正。他所强调的“具备结构性推理与预测能力的AI”,并不完全依赖大规模的语言语料与模式识别能力,而更注重内在模型结构与表达形式的可解释性和可推理性。

尽管Meta已在该方向上进行尝试,但从V-JEPA本身的功能定义来看,它仍属于“前期架构验证”阶段。模型尚未广泛部署,相关评估标准和实际应用场景也仍在摸索之中。

目前,对世界模型的定义在学界和产业界尚无共识。有观点认为,这类模型最终需结合具身智能,模拟实体与环境的持续交互;也有研究强调,它可以通过抽象表示与模拟环境实现更高效的训练过程。

LeCun本人则强调,真正的挑战在于如何构建一个“足够抽象、又足够有预测力”的中间世界。换言之,不是追求还原世界的所有细节,而是捕捉那些在行动决策中最关键的信息层。

相关资讯

Transformer革新药物研发:TRACER框架实现反应感知的分子设计与合成优化

编辑 | 2049药物研发周期长、成本高是制药行业面临的重大挑战。 据统计,一个新药从研发到上市平均需要 12 年时间,投入高达 26 亿美元。 为提升研发效率,深度学习在分子生成领域取得了显著进展。
2/26/2025 3:52:00 PM
ScienceAI

聊聊SpringAI流式输出的底层实现?

在 Spring AI 中,流式输出(Streaming Output)是一种逐步返回 AI 模型生成结果的技术,允许服务器将响应内容分批次实时传输给客户端,而不是等待全部内容生成完毕后再一次性返回。 这种机制能显著提升用户体验,尤其适用于大模型响应较慢的场景(如生成长文本或复杂推理结果)。 技术实现在 Spring AI 中流式输出的实现有以下两种方式:通过 ChatModel 实现流式输出。
4/24/2025 12:00:00 AM
磊哥

5090跑《黑神话》飙到200+帧,英伟达DLSS也用上Transformer了

现在,打个游戏都用上Transformer了? 老黄的DLSS进行了一波大升级,换上了基于Transformer的新大脑。 用上新模型之后,光线重建和超分辨率,效果都变得更细腻了。
1/20/2025 7:00:00 AM
量子位
  • 1