AI在线 AI在线

首次实现中文文字生成,消息称阿里通义万相 2.1 视频生成模型今晚开源

据新浪科技援引知情人士消息称,阿里巴巴将于今晚全面开源旗下视频生成模型万相2.1模型。

据新浪科技援引知情人士消息称,阿里巴巴将于今晚全面开源旗下视频生成模型万相 2.1 模型。

今年 1 月,阿里通义万相推出了 2.1 版本模型升级,其在视频生成、图像生成两大能力均有显著提升。

在视频生成方面,通义万相 2.1 通过自研的高效 VAE 和 DiT 架构增强了时空上下文建模能力,支持无限长 1080P 视频的高效编解码,首次实现了中文文字视频生成功能,登上 VBench 榜单第一。

首次实现中文文字生成,消息称阿里通义万相 2.1 视频生成模型今晚开源

据介绍,通义万相 2.1 支持中英文视频,都可以一键生成艺术字,还提供多种视频特效选项,以增强视觉表现力,例如过渡、粒子效果、模拟等等。其还支持复杂运镜,可还原碰撞、反弹、切割、挤压等真实世界的物理规律,例如雨滴落在伞上会溅起水花。

官方曾表示,通义万相 2.1 支持中英文一键生成艺术字,还提供了多种视频特效选项,如过渡、粒子效果、模拟等等。

首次实现中文文字生成,消息称阿里通义万相 2.1 视频生成模型今晚开源

据AI在线此前报道,通义万相去年 9 月宣布支持文生视频、图生视频等,还有插画设计、涂鸦作画、局部重绘、短片创作、配乐生成等场景化能力。

相关资讯

阿里巴巴开源视频生成与编辑模型通义万相 Wan2.1-VACE

阿里巴巴开源通义万相Wan2.1-VACE,支持视频生成与编辑,单一模型可完成文生视频、视频重绘等多种任务。1.3B版本可在消费级显卡运行。#AI视频生成##阿里巴巴#
5/14/2025 10:42:53 PM
远洋

阿里巴巴开源视频生成模型通义万相 Wan2.2,首创电影美学控制系统

AI在线 7 月 28 日消息,今晚,阿里开源视频生成模型「通义万相 Wan2.2」,此次共开源文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)三款模型,其中文生视频模型和图生视频模型均为业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B;同时,首创电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。 开发者可在 GitHub、HuggingFace、魔搭社区下载模型和代码,企业可在阿里云百炼调用模型 API,用户还可在通义万相官网和通义 App 直接体验。 据官方介绍,通义万相 2.2 率先在视频生成扩散模型中引入 MoE 架构,有效解决视频生成处理 Token 过长导致的计算资源消耗大问题。
7/28/2025 8:30:14 PM
远洋

硬刚Sora2,万相2.6轻松定制角色、控制分镜,普通人也能当导演

2025 年即将画上句号,回望这一年的视频生成领域,用「突飞猛进」来形容毫不为过,甚至可以说,视频内容创作的范式正在悄然发生改变。 9 月,OpenAI 发布的 Sora 2 凭借「客串(Cameo)」功能,打破了困扰行业已久的「角色一致性」瓶颈,首创的「角色扮演功能」玩法让 AI 视频从充满不确定性的「盲盒抽卡」进化为可控的「导演游戏」。 与此同时,商业落地的速度快得惊人:在 B 端,大量 AI 短剧、漫剧上线,制作成本大幅降低;在 C 端,社交平台上不仅有「粘土滤镜」这样的爆款特效,更有大量博主开始常态化使用 AI 制作剧情短片。
12/17/2025 2:47:00 PM
机器之心