给说话大模型加上综合视听才能,达摩院开源Video-LLaMA

视频在当今社交媒体和互联网文化中扮演着愈发重要的角色,抖音,快手,B 站等已经成为数以亿计用户的热门平台。用户围绕视频分享自己的生活点滴、创意作品、有趣瞬间等内容,与他人互动和交流。近期,大说话模型展

视频在当今社交媒体和互联网文化中扮演着愈发重要的角色,抖音,快手,B 站等已经成为数以亿计用户的热门平台。用户围绕视频分享自己的生活点滴、创意作品、有趣瞬间等内容,与他人互动和交流。近期,大说话模型展现出了令人瞩目的才能。我们能否给大模型装上 “眼睛” 和 “耳朵”,让它能够了解视频,陪着用户互动呢?从这个问题出发,达摩院的研究人员提出了 Video-LLaMA,一个具有综合视听才能大模型。Video-LLaMA 能够感知和了解视频中的视频和音频旗号, 并能了解用户输入的指令,完成一系列基于音视频的复杂任务,例如音 / 视频描述,写作,问答等。目前论文,代码,交互 demo 都已开放。另外,在 Video-LLaMA 的项目主页中,该研究团队还提供了中文版本的模型,让中文用户的体验更丝滑。

图片

论文链接:https://arxiv.org/abs/2306.02858代码地址:https://github.com/DAMO-NLP-SG/Video-LLaMADemo 地址:Modelscope: https://modelscope.cn/studios/damo/video-llama/summaryHuggingface: https://huggingface.co/spaces/DAMO-NLP-SG/Video-LLaMA

样例输入文件地址:

https://github.com/DAMO-NLP-SG/Video-LLaMA/tree/main/examples

模型设计Video-LLaMA 采取了模块化设计原则,把视频中的视觉和音频模态信息映射到到大说话模型的输入空间中,以实现跨模态指令跟随的才能。与之前侧重于静态图象了解的大模型研究(MiNIGPT4,LLaVA)不同,Video-LLaMA 面临着视频了解中的两个挑战:捕捉视觉中的动态场景变化和整合视听旗号。为了捕捉视频中的动态场景变化,Video-LLaMA 引入了一个可插拔的视觉说话分支。该分支首先使用 BLIP-2 中预训练好的图片编码器得到每一帧图象的单独特性,再与对应的帧位置嵌入结合后,所有图象特性被送入 Video Q-Former,Video Q-Former 将聚合帧级别的图象表示并且生成定长的综合视频表征。最后采取一个线性层将视频表征对齐到大说话模型的 embedding 空间。

图片

至于视频中的声响旗号,Video-LLaMA 使用音频 – 说话分支进行处理。首先从原始视频中均匀采样多个时长两秒的音频片断,并将每个片断转换为 128 维的梅尔频谱图。然后,采取强大的 ImageBind 作为音频编码器,单独提取每个声响片断的特性。在添加可学习的位置嵌入后,Audio Q-Former 将片断特性进行整体聚合,并生成固定长度的音频特性。与视觉说话分支类似,最后采取线性层将音频表征对齐到大说话模型的 embedding 空间。为了减少训练成本,Video-LLaMA 冻结了预训练好的图片 / 音频编码器,只更新了视觉和音频分支中的以下参数:Video/Audio Q-Former,位置编码层以及线性层(如图 1 所示)。为了学习视觉和文本的对齐关系,作家们首先利用大规模的视频 – 文本数据集 (WebVid-2M) 和图象 – 文本数据集(CC-595K)对视觉分支进行预训练。之后,作家们利用来自 MiniGPT-4,LLaVA 的图象指令数据集和来自 Video-Chat 的视频指令数据集来微调,从而达到更好的跨模态指令跟随才能。至于音频 – 文本对齐关系的学习,由于缺乏大规模高质量的音频 – 文本数据,作家们采取了一种变通策略来达到这一目标。首先,音频 – 说话分支中可学习参数的目标可以了解为将音频编码器的输出与 LLM 的嵌入空间对齐。而音频编码器 ImageBind 具有非常强的多模态对齐才能,它能将不同模态的嵌入对齐到一个共同的空间中。因此,作家们使用视觉 – 文本数据来训练音频 – 说话分支,将 ImageBind 的公共嵌入空间对齐到 LLM 的文本嵌入空间,从而实现音频模态到 LLM 文本嵌入空间对齐。通过这种巧妙的方式,Video-LLaMA 能在推理过程中展现出了解音频的才能,即使从未接受过音频数据的训练。实例展示作家展示了 Video-LLaMA 基于视频 / 音频 / 图象的对话的一些例子。 (1)下面两个例子展示了 Video-LLaMA 的视听综合感知才能,例子中的会话围绕有声视频展开。在例子二中,画面上仅仅显示了这个演奏家,但是声响中是观众的欢呼声和掌声,如果模型只能接受视觉旗号,将无法推测到观众的积极响应,音频中并没有乐器的声响,但画面中出现了萨克斯,如果模型仅能接受听觉旗号,也将无法得知演奏家演奏了萨克斯。

图片

图片

(2)Video-LLaMA 对于静态图象也有较强的感知了解才能,可以完成图片描述,问答等任务。

图片

图片

(3)令人惊奇的是,Video-LLaMA 能成功识别著名的地标和人物,并能进行常识性问答。比如下面 VIdeo-LLaMA 就成功识别出了白宫,并介绍了白宫的情况。又比如输入一张龙妈和囧雪的剧照(经典影视剧《权利的游戏》中角色),VIdeo-LLaMA 不仅能够成功识别,而且能说出他们剪不断理还乱的关系。

图片

 

图片

(4)针对于视频的动态事件,Video-llama 也能很好捕捉,例如嘘声的动作,小船行驶的方向。

图片

图片

总结目前,音频视频了解依旧是一个非常复杂,尚未有成熟解决方案的研究问题,Video-LLaMA 虽然表现出了令人印象深刻的才能,作家也提到了其存在一些局限性。(1)有限的感知才能:Video-LLaMA 的视觉听觉才能仍然较为初级,对复杂的视觉声响信息依然难以辨认。其中一部分原因是数据集的质量和规模还不够好。该研究团队正在积极构建高质量的音频 – 视频 – 文本对齐数据集,以增强模型的感知才能。(2)难以处理长视频的:长视频 (如电影和电视节目) 包含大量的信息,对模型的推理才能和计算资源都较高。(3)说话模型固有的幻觉问题,在 Video-LLaMA 中依然存在。总的来说,Video-LLaMA 作为一个具有综合视听才能的大模型,在音频视频了解领域取得了令人印象深刻的效果。随着研究者的不断攻坚,以上挑战也将逐个被克服,使得音视频了解模型具有广泛的实用价值。

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/20447

(0)
上一篇 2023年6月8日 下午2:20
下一篇 2023年6月8日 下午2:42

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注