AI在线 AI在线

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

视频大型语言模型(Video LLMs)的发展日新月异,它们似乎能够精准描述视频内容、准确的回答相关问题,展现出足以乱真的人类级理解力。 但有一个非常本质的问题始终萦绕着研究者的心头:这些模型是真的“理解”了视频,还是仅仅在进行一种高级的“模式匹配”? 为了解决上述问题,来自南洋理工大学S-Lab的研究者们提出了一个全新的、极具挑战性的基准测试——Video Thinking Test(简称Video-TT)。

视频大型语言模型(Video LLMs)的发展日新月异,它们似乎能够精准描述视频内容、准确的回答相关问题,展现出足以乱真的人类级理解力。

但有一个非常本质的问题始终萦绕着研究者的心头:这些模型是真的“理解”了视频,还是仅仅在进行一种高级的“模式匹配”?

为了解决上述问题,来自南洋理工大学S-Lab的研究者们提出了一个全新的、极具挑战性的基准测试——Video Thinking Test(简称Video-TT)

其核心目标简单而深刻:将“看”与“想”的能力分离,精准测量AI在视频内容上的真实理解和推理水平。

研究团队有三项关键发现:

(1)人类在视频理解的“准确率”和“鲁棒性”上远超SOTA级模型(50%),差距显著。

(2)开源模型在“鲁棒性”上远逊GPT-4o(SOTA模型之一)。

(3)GPT-4o的短板在于:对模糊或非常规内容识别能力弱;对多场景区分、定位、计算能力有困难;世界知识对应能力欠缺,无法理解意图、社会动态等深层信息。

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

Video-TT图灵测试集由南洋理工大学S-Lab科研团队联合独立研究员共同研发完成。主要作者包括南洋理工大学博士生张元瀚、董宇昊,二人的研究方向聚焦多模态模型;通讯作者为南洋理工大学助理教授刘子纬。

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

人类的智慧核心在于其正确性(Correctness)鲁棒性(Robustness)

正确性意味着我们能准确地解读信息,而鲁棒性则保证了我们在面对信息干扰、歧义或不同表述时,依然能保持正确的判断。这两者结合,才构成了真正可靠的理解能力。

现有的视频理解基准测试(Benchmark)在衡量AI是否达到人类级智慧上存在着一些根本性的缺陷。它们往往无法区分模型是因为“没看清”而犯错(即关键视频帧采样不足),还是因为“没想明白”而出错(即缺乏真正的推理能力)。

这种混淆使得我们很难评估AI在视频理解上的真实水平。

在Video-TT出现之前,视频理解领域已有相应的评测标准,但这些标准普遍存在一定局限性,导致AI的真实能力无法被准确衡量。

问题一:长视频评测的“帧采样悖论”

近期,许多研究都聚焦于长视频理解。然而由于计算资源限制,模型无法处理视频的每一帧,只能“跳着看”(稀疏采样)。

这就带来一个问题:当模型答错时,我们无法确定是它能力不行,还是运气不好,恰好错过了包含答案的关键帧。

如下图所示,在一些长视频评测中(如VideoMME-Long),即便是强大的GPT-4o,其性能也可能因为采样帧数的限制而大幅下降。这种下降反映的更多是“采样策略”的失败,而非“理解能力”的不足。

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

问题二:短视频评测的“天花板幻觉”

与长视频相对,短视频评测(如VideoMME-Short)由于时长较短,模型可以几乎“看完”所有帧。在这种情况下,一些顶尖模型的表现接近甚至达到了人类水平(上图左侧),这容易给人一种“短视频理解问题已被基本解决”的错觉。

然而,事实远非如此。Video-TT的研究者们认为,即便在信息密集的短视频中,依然存在大量需要深度推理和复杂认知才能解决的挑战。简单地提升准确率分数,并不能证明AI拥有了与人类同等的智慧。

Video-TT的破局创新点在于,它选择了1000条全新的YouTube短视频(避免数据污染),并精心设计问题的标注,确保答案能在有限的、统一的80帧内找到。

这样一来,所有模型都在同一起跑线上“看”素材,评测的焦点便从“如何有效采样”转移到了“能否深刻理解”上,从而拨开迷雾,直击AI的“思考”核心。

要衡量“思考”,就必须提出能够激发“思考”的问题。Video-TT的设计原则是,一个复杂的问题并非由其类型决定(如“物体颜色”vs“情节理解”),而是由其背后的上下文、原因和场景决定。

研究团队从“认知科学”和“影视叙事学”中汲取灵感,构建了两个核心的复杂性维度:视觉复杂度和叙事复杂度。

维度一:视觉复杂度(Visual Complexity)

这部分关注的是视频画面的内在挑战,共包含四个方面:

  • 模糊与非常规内容(Unclear&Unusual Content)
  • 视频中是否存在干扰、模糊、遮挡,或者出现了与我们日常认知相悖的物体或现象?
  • 运动速度(Movement Speed)
  • 物体或镜头的移动是否过快,导致难以识别或追踪?
  • 时空布局(Spatial-temporal Arrangement)
  • 场景中物体的位置关系和互动是否复杂?是否存在大量的时空信息需要处理?
  • 视错觉(Illusions)
  • 视频是否利用了拍摄技巧或内容本身来制造错觉,挑战观众的直觉?

维度二:叙事复杂度(Narrative Complexity)

这部分关注的是视频作为一种“故事”的表达方式,其内在的逻辑和深度,同样包含四个方面:

  • 复杂情节(Complex Plot)
  • 故事线是否存在反转或意想不到的结局?
  • 叙事剪辑(Narrative Editing)
  • 是否使用了蒙太奇等复杂的剪辑手法来讲述故事,而非平铺直叙?
  • 技术性剪辑(Technical Editing)
  • 是否存在难以察觉的、与内容融为一体的特效或后期处理?
  • 世界知识(World Knowledge)
  • 理解视频是否需要依赖超越画面本身的世界常识、文化背景或社会规范?
大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

例如,上图中的Q-8提问“视频中的女士在模仿什么行为?”,这需要观众拥有关于“特定活动”(被子弹击中后倒下)的世界知识才能正确回答。这些问题迫使模型超越简单的物体识别,进入真正的推理(Reasoning)层面。

拥有了能让AI“思考”的难题还不够,我们还需要知道它的思考有多“鲁棒”(Robustness)。一个鲁棒的模型,不应该因为用户表述的方法稍有改变就给出截然不同的答案。

为此,Video-TT为每一个核心难题(Primary Question)都配备了四种“自然对抗性问题”(Natural Adversarial Questions),形成一套完整的测试体系。

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

这五种问题类型分别是:

  • 核心问题(Primary Open-ended Question)
  • 基于视觉和叙事复杂度设计的开放式的问题。
  • 复述问题(Rephrased Question)
  • 用不同的措辞问同一个问题(例如,“谁的头被拍了?”),模型的答案理应保持一致。
  • 正确诱导问题(Correctly-led Question)
  • 问题中包含正确的线索(例如,“他拍的是穿8号球衣的球员的头吗?”),这测试模型能否利用提示来确认事实。
  • 错误诱导问题(Wrongly-led Question)
  • 问题中包含错误的、误导性的线索(例如,“他拍的是穿9号球衣的球员的头吗?”),这对于模型来说是最大的考验,它必须足够“自信”地否定错误的诱导。
  • 多项选择问题(Multiple-choice Question)
  • 将正确和错误的诱导信息作为选项,考察模型在有明确选项时的辨别能力。

只有当模型能够准确回答核心问题(正确性),并且在面对各种“变体”提问时仍能保持判断一致(鲁棒性),我们才能说它达到了真正的、类人的理解水平。

经过如此严苛的设计,Video-TT的评测结果揭示了一个惊人的事实:目前的SOTA模型,在视频思维能力上,与人类相比仍有巨大鸿沟。

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

从数据中可以清晰地看到:

  • 人类遥遥领先
  • 人类测试者在正确性上达到84.3%,鲁棒性达到64.4%,展现了强大的理解与推理能力。
  • GPT-4o表现腰斩
  • 作为当前最强的多模态模型之一,GPT-4o的正确率仅为36.6%,不足人类的一半。其36.0%的鲁棒性得分也表明,它在面对干扰时同样表现不佳。
  • 开源模型仍需努力
  • 虽然部分开源模型在多选题上能与GPT-4o媲美,但在更考验真实理解能力的开放式问题上,差距显著。这说明,现有的许多其他基准测试可能因为侧重选择题而高估了模型的能力。

这一巨大的分数差距有力地证明,当前的AI在真正成为AGI的道路上,尤其是在视频理解这一核心领域,依然任重而道远。

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

对AI的错误类型进行分析。可以看出,“复杂情节”(Complex Plot)和“世界知识”(World Knowledge)是导致模型在高级认知任务中失败的主要原因。

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

Video-TT的作者们对GPT-4o的错误答案进行了深入的定性分析,发现了三大核心弱点:

弱点一:时空混淆——“理不清”时间与空间

在需要理解时空关系的任务中,模型错误率极高。

  • 物体计数
  • 模型很难精确追踪随时间变化的物体。例如,在一个视频中,墙上的相框先出现,然后移出画面,再重新出现。模型可以数清单帧内的相框数量,但无法正确计算整个过程中出现过的不同相框总数。
  • 序列定位
  • 当越多事件被排序到一条视频里,模型越分不清问题里的语义内容和视频的具体关联。比如,单一事件场景下,它可能知道“翻跟斗”这个动作、也知道怎么数数定位,但在多事件场景里,却无法正确数数定位到第二位“翻跟斗”的视频人物。

弱点二:常识缺失——“看不懂”言外之意

许多错误源于模型缺乏人类社会和文化中的常识(World Knowledge)。

  • 角色动机与情感
  • 模型可以描述一个人的表情是“平静的”,但无法结合上下文(例如,刚刚在比赛中获得银牌)理解这种“平静”背后其实是“失望”。人类知道“银牌得主通常比铜牌得主更失落”,因为他们离金牌仅一步之遥,而模型没有这种深层社会心理知识。

弱点三:复杂情节理解失败——“串不起”故事线

当视频叙事需要跨场景、跨线索进行逻辑推理时,模型往往会“掉线”。

  • 因果关系链条断裂
  • 在一条视频中,第一个场景是一个人在房屋附近打棒球,而第二个场景是展示房屋的押金被扣除。模型可以分别描述这两个场景,但无法将它们联系起来,推理出“因为棒球被打入屋里,破坏了房屋,所以押金被扣”这一核心的因果关系。它会错误地认为视频只是在展示“买棒球棒花了多少钱”。

Video-TT这一评测基准提示相关研究者,在看到AI技术进步的同时,也需留意其存在的不足,该领域的探索仍需不断深入。

论文链接:https://arxiv.org/abs/2507.15028 数据集:https://huggingface.co/datasets/lmms-lab/video-tt 项目主页:https://zhangyuanhan-ai.github.io/video-tt/

相关资讯

PVUW视频分割Workshop@CVPR 2025 | 征稿!比赛!

第四届真实世界下的像素级视频理解挑战赛(The 4th PVUW challenge)主页/Call for Paper::复杂场景视频目标分割挑战赛(MOSE Challenge):参赛、数据集下载::基于动作描述的指向性视频分割挑战赛(MeViS Challenge):参赛、数据集下载: 真实世界下的像素级视频理解(Pixel-level Video Understanding in the Wild, PVUW)挑战赛将于 CVPR 2025 期间在美国田纳西州纳什维尔的 Music City Center 举办。 像素级场景理解是计算机视觉中的核心问题之一,旨在识别图像中每个像素的类别、掩码和语义。 然而,现实世界是动态的,基于视频的,而非静态的图像状态,因此学习进行视频分割对于实际应用来说更为合理和实用。
3/3/2025 4:37:00 PM
新闻助手

多榜单登顶!华为 & 哈工深团队提出 AdaReTaKe,突破长视频理解极限

第一作者为哈尔滨工业大学(深圳)博士生王霄和华为大模型研究员佀庆一,该工作完成于王霄在华为实习期间。 王霄的研究方向为多模态视频理解和生成,佀庆一的研究方向为多模态理解、LLM post-training和高效推理。 随着视频内容的重要性日益提升,如何处理理解长视频成为多模态大模型面临的关键挑战。
4/4/2025 1:39:00 PM
机器之心

调查:超72% 的企业选择 AI 工具时最看重易用性

根据最近的一项 CIO 报告,企业在人工智能(AI)领域的投资高达2.5亿美元,尽管在证明投资回报率(ROI)方面面临挑战。 商业领袖们正努力提高生产力,但新技术的集成往往需要重构现有应用、更新流程并激励员工学习,以适应现代商业环境。 QuickBlox 首席执行官 Nate MacLeitch 对136位高管进行了调查,以揭示 AI 采用的现实情况,探讨领导者的首要任务、主要担忧以及他们在2025年寻找可信工具的信息来源。
3/18/2025 10:02:00 AM
AI在线
  • 1