AI在线 AI在线

不是视频模型“学习”慢,而是LLM走捷径|18万引大牛Sergey Levine

这是UC伯克利大学计算机副教授Sergey Levine最新提出的灵魂一问。 他同时是Google Brain的研究员,参与了Google知名机器人大模型PALM-E、RT1和RT2等项目。 Sergey Levine在谷歌学术的被引用次数高达18万次。

这是UC伯克利大学计算机副教授Sergey Levine最新提出的灵魂一问。

他同时是Google Brain的研究员,参与了Google知名机器人大模型PALM-E、RT1和RT2等项目。

Sergey Levine在谷歌学术的被引用次数高达18万次。

图片

“柏拉图洞穴”是一个很古老的哲学比喻,通常被用来说明人们对世界认知的局限性。

图片

Sergey Levine的这篇文章以《柏拉图洞穴中的语言模型》为题,又想要揭示AI的哪些缺陷呢?

在文章的开头,作者提到人工智能就是在研究能够反映人类智能的灵活性和适应性的假想智能。

一些研究者推测,人类心智的复杂性和灵活性源自于大脑中应用的一个单一算法,通过这个算法可以实现所有多样化的能力。

也就是说,AI如果能复现这个终极算法,人工智能就能通过经验自主获取多元能力,达到人类智能的高度。

在这个探索过程中,语言模型取得了非常成功的突破。

甚至,LLMs实现能力跃升背后的算法(下一词预测+强化学习微调),也非常简单。

单一终极算法假设似乎就是AI模型的答案……

然而,这个假设对视频模型并不适用。

语言模型与视频模型的对比

早在基于Transformer的语言模型出现之前,AI研究人员就已经忙着研究一个看似非常相似的问题:

就像LLM通过预测来自网络文本数据的下一个词来学习一样,视频模型也可能通过预测视频数据的下一个帧来学习。

甚至从数据上来说,视频数据比文本数据包含的信息更丰富,那么预测下一帧得到的认知会远比预测下一词得到的认知更全面。

比如,一个飞往宇宙探索的机器人,在那里没有人能提供文本,但是它仍然能获取丰富的视频数据。

基于这些证据,我们可以认为能够“观察”到更多物理世界的视频模型应该比语言模型更加强大。

然而,事情并没有按研究人员所期望的那样发展。

尽管视频预测模型可以生成逼真的视频,但在解决复杂问题、进行复杂推理方面,语言模型仍然是主要且唯一的选择。

这与LLMs对物理世界的“观察”更少,却获得了更复杂的认知能力形成了鲜明对比。

就像文章中举出的例子:我们并不能用Veo 3估算夏威夷群岛的岩石体积是否比珠穆朗玛峰更大,但ChatGPT却可以回答这个问题。

这是因为LLMs只需要调用人类总结的地理知识(文本中已有相关数据或推理路径)。

简单来说,视频数据是物理世界的直接映射,而非人类认知的加工产物。

视频模型需自主归纳物理规律,而LLMs却可以 “抄近路” 模仿人类已有的推理结果。

LLMs 仅接触文本 “影子”(人类认知的投影),却比直接观察物理世界的视频模型更具推理能力。

作者认为,这是LLMs只会对人类进行“脑部扫描”,而非真正学会了像人类一样推理问题。

就像是AI系统存在于「柏拉图洞穴」中。

AI系统的“柏拉图洞穴”

“柏拉图洞穴”原本的故事是指一群人被绑在洞穴里,只能看到墙壁上的影子,不能看到洞穴外的阳光。

这个故事通常被用来说明人们对世界认知的局限性。

在文章中,作者将互联网比作洞穴,将真实世界比做洞穴外的阳光,用“柏拉图洞穴”来类比AI的现状。

AI通过语言模型学习人类的知识和思维方式,但这些知识就像洞穴墙壁上的影子,是人类智慧的间接反映。

它们并没有真正理解世界,其能力是对人类认知的 “逆向工程”,而不是自主探索。

而视频模型目前连影子都无法认知……

AI该如何走出洞穴?

作者认为既然LLMs已经了实现人类认知的部分模拟(如推理、生成),那么就可以将它可 “心智原型”,为通用AI提供起点。

而长期目标则是突破“影子依赖”,不再依赖人类中介(类似文本数据),让AI通过传感器直接与物理世界交互,自主探索。

对此,有评论者提出:视觉、语言、行动系统就像独立的洞穴,如果能够通过共享结构建立桥梁,可能就不需要逃离“洞穴”,跨模态连接就成了探索过程中的挑战,需要找到一个连接这些模态的统一的方法。

图片

对于AI的“洞穴困境”,你有怎样的看法呢?

相关资讯

东京大学 | Adobe 提出InstructMove,可通过观察视频中的动作来实现基于指令的图像编辑

InstructMove是一种基于指令的图像编辑模型,使用多模态 LLM 生成的指令对视频中的帧对进行训练。 该模型擅长非刚性编辑,例如调整主体姿势、表情和改变视点,同时保持内容一致性。 此外,该方法通过集成蒙版、人体姿势和其他控制机制来支持精确的局部编辑。
1/20/2025 10:36:00 AM
AIGC Studio

阿里发布新ID保持项目EcomID, 可从单个ID参考图像生成定制的保ID图像,ComfyUI可使用

阿里妈妈发布了一个新的ID保持项目EcomID,旨在从单个ID参考图像生成定制的保ID图像,优势在于很强的语义一致性,同时受人脸关键点控制。 EcomID 方法结合了 PuLID 和 InstantID 的优点,以获得更好的背景一致性、面部关键点控制、更真实的面部以及更高的相似度。 目前,EcomID 的 Comfyui 原生实现官方插件也已经发布,大家可以从文章中的链接获取。
1/20/2025 11:00:00 AM
AIGC Studio

o1推理框架最新成果:斯坦福&伯克利提出元链式思维,升级模型推理能力

o1背后的推理原理,斯坦福和伯克利帮我们总结好了! 在最新的一篇长达100页的论文中,他们将o1模型背后的推理机制提炼成了一个通用的框架——元链式思维(Meta-CoT)。 这个元链式思维(Meta-CoT)到底是什么意思呢?
1/20/2025 1:08:25 PM
量子位
  • 1