AI在线 AI在线

阿里巴巴开源视频生成模型通义万相 Wan2.2,首创电影美学控制系统

AI在线 7 月 28 日消息,今晚,阿里开源视频生成模型「通义万相 Wan2.2」,此次共开源文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)三款模型,其中文生视频模型和图生视频模型均为业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B;同时,首创电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。 开发者可在 GitHub、HuggingFace、魔搭社区下载模型和代码,企业可在阿里云百炼调用模型 API,用户还可在通义万相官网和通义 App 直接体验。 据官方介绍,通义万相 2.2 率先在视频生成扩散模型中引入 MoE 架构,有效解决视频生成处理 Token 过长导致的计算资源消耗大问题。

AI在线 7 月 28 日消息,今晚,阿里开源视频生成模型「通义万相 Wan2.2」,此次共开源文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)三款模型,其中文生视频模型和图生视频模型均为业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B;同时,首创电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。

开发者可在 GitHub、HuggingFace、魔搭社区下载模型和代码,企业可在阿里云百炼调用模型 API,用户还可在通义万相官网和通义 App 直接体验。

阿里巴巴开源视频生成模型通义万相 Wan2.2,首创电影美学控制系统

据官方介绍,通义万相 2.2 率先在视频生成扩散模型中引入 MoE 架构,有效解决视频生成处理 Token 过长导致的计算资源消耗大问题。Wan2.2-T2V-A14B、Wan2.2-I2V-A14B 两款模型均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善,在同参数规模下,可节省约 50% 的计算资源消耗,在模型能力上,通义万相 2.2 在复杂运动生成、人物交互、美学表达、复杂运动等维度上也取得了显著提升。

阿里巴巴开源视频生成模型通义万相 Wan2.2,首创电影美学控制系统

Wan2.2 还首创了「电影美学控制系统」,光影、色彩、构图、微表情等能力媲美专业电影水平。例如,用户输入「黄昏」、「柔光」、「边缘光」、「暖色调」「中心构图」等关键词,模型可自动生成金色的落日余晖的浪漫画面;使用「冷色调」、「硬光」、「平衡图」、「低角度」的组合,则可以生成接近科幻片的画面效果。

阿里巴巴开源视频生成模型通义万相 Wan2.2,首创电影美学控制系统

阿里巴巴开源视频生成模型通义万相 Wan2.2,首创电影美学控制系统

阿里巴巴开源视频生成模型通义万相 Wan2.2,首创电影美学控制系统

通义万相还开源了一款 5B 小尺寸的统一视频生成模型,单一模型同时支持文生视频和图生视频,可在消费级显卡部署。该模型采用了高压缩率 3D VAE 架构,时间与空间压缩比达到高达 4×16×16,信息压缩率提升至 64,均实现了开源模型的最高水平,仅需 22G 显存(单张消费级显卡)即可在数分钟内生成 5 秒高清视频,是目前 24 帧每秒、720P 像素级的生成速度最快的基础模型。

自今年 2 月以来,通义万相已连续开源文生视频、图生视频、首尾帧生视频和全能编辑等多款模型,在开源社区的下载量已超 500 万。

AI在线附开源地址:

GitHub:https://github.com/Wan-Video/Wan2.2

HuggingFace:https://huggingface.co/Wan-AI

魔搭社区:https://modelscope.cn/organization/Wan-AI

相关资讯

首次实现中文文字生成,消息称阿里通义万相 2.1 视频生成模型今晚开源

据新浪科技援引知情人士消息称,阿里巴巴将于今晚全面开源旗下视频生成模型万相2.1模型。
2/25/2025 5:28:36 PM
清源

阿里巴巴开源视频生成与编辑模型通义万相 Wan2.1-VACE

阿里巴巴开源通义万相Wan2.1-VACE,支持视频生成与编辑,单一模型可完成文生视频、视频重绘等多种任务。1.3B版本可在消费级显卡运行。#AI视频生成##阿里巴巴#
5/14/2025 10:42:53 PM
远洋

业界首个,阿里通义万相“首尾帧生视频模型”开源

它可根据用户指定的开始和结束图片,生成一段能衔接首尾画面的 720p 高清视频,此次升级将能满足用户更可控、更定制化的视频生成需求。
4/17/2025 10:55:39 PM
汪淼
  • 1