AI在线 AI在线

业界首个,阿里通义万相“首尾帧生视频模型”开源

它可根据用户指定的开始和结束图片,生成一段能衔接首尾画面的 720p 高清视频,此次升级将能满足用户更可控、更定制化的视频生成需求。

阿里通义万相「首尾帧生视频模型」今日宣布开源,该模型参数量为 14B,号称是业界首个百亿参数规模的开源首尾帧视频模型。

它可根据用户指定的开始和结束图片,生成一段能衔接首尾画面的 720p 高清视频,此次升级将能满足用户更可控、更定制化的视频生成需求。

图片

用户可在通义万相官网直接免费体验该模型,或在 Github、Hugging Face、魔搭社区下载模型本地部署后进行二次开发。

图片

技术介绍

首尾帧生视频比文生视频、单图生视频的可控性更高,但这类模型的训练难度较大,首尾帧视频生成需同时满足以下几点:

1. 生成的视频内容要保证和用户输入的两张图像一致

2. 能够遵循用户的提示词指令

3. 能从给定的首帧自然、流畅过渡到尾帧

4. 视频本身动作协调、自然

训练及推理优化

基于现有的 Wan2.1 文生视频基础模型架构,通义万相首尾帧生视频模型进一步引入了额外的条件控制机制,通过该机制可实现流畅且精准的首尾帧变换。

在训练阶段,团队还构建了专门用于首尾帧模式的训练数据,同时针对文本与视频编码模块、扩散变换模型模块采用了并行策略,这些策略提升了模型训练和生成效率,也保障了模型具备高分辨率视频生成的效果。

在推理阶段,为了在有限内存资源的条件下支持高清视频推理,万相首尾帧模型分别采用了模型切分策略以及序列并行策略,在确保推理效果无损的前提下,显著缩短了推理时间。

图片

功能升级

基于该模型,用户可完成更复杂、更个性化的视频生成任务,可以实现同一主体的特效变化、不同场景的运镜控制等视频生成。

例如,上传相同位置不同时间段的两张外景图片,输入一段提示词,通义万相首尾帧生成模型即可生成一段四季交替变化或者昼夜变化的延时摄影效果视频;上传两张不同画面的场景,还可通过旋转、摇镜、推进等运镜控制衔接画面,在保证视频和预设图片一致性前提下,同时让视频拥有更丰富的镜头。

AI在线附开源地址:

  • Github:https://github.com/Wan-Video/Wan2.1

  • HuggingFace:https://huggingface.co/Wan-AI/Wan2.1-FLF2V-14B-720P

  • 魔搭社区:https://www.modelscope.cn/models/Wan-AI/Wan2.1-FLF2V-14B-720P

  • 直接体验入口:https://tongyi.aliyun.com/wanxiang/videoCreation

相关资讯

案例超多!5个知名国产AI视频产品实战评测

2 月初 Sora 发布的文生视频 demo 炸裂,让更多人关注到AI视频生成这个领域。 不过 OpenAI 公司的人事动荡频繁,其产品上线时间尚不确定。 从年中可灵低调发布获国内外众多网友好评后,最近国内视频大模型也开始卷啦,9 月份相继更新的有可灵、Vidu、海螺、通义万相和字节的豆包,我们今天测评一下国内知名视频模型的图生视频功能。
10/17/2024 12:42:19 AM
AI设计师Lena

首次实现中文文字生成,消息称阿里通义万相 2.1 视频生成模型今晚开源

据新浪科技援引知情人士消息称,阿里巴巴将于今晚全面开源旗下视频生成模型万相2.1模型。
2/25/2025 5:28:36 PM
清源

阿里通义万相 2.1 模型宣布升级:首次实现中文文字视频生成功能,支持无限长 1080P 视频的高效编解码

通义万相 2.1 还支持复杂运镜,可还原碰撞、反弹、切割、挤压等真实世界的物理规律,例如雨滴落在伞上会溅起水花。
1/10/2025 11:03:37 AM
问舟
  • 1