AI在线 AI在线

VideoLLMs

EMNLP 2025 | 视频理解Token压缩新范式,减少70.8%推理延迟!

在大语言模型的浪潮中,视频大语言模型(VideoLLMs)正以惊人的速度进化,生成的响应越来越精细。 然而,“慢”与计算量大依然是制约其大规模应用的最大痛点。 视频序列中海量视觉token导致的二次方复杂度,让处理一个长视频往往需要漫长的等待,尤其在高分辨率或长序列场景下。
12/15/2025 3:33:00 PM
新闻资讯