腾讯联合中山大学、港科大推出图生视频模型“Follow-Your-Pose-v2”

腾讯混元团队联合中山大学、香港科技大学联合推出全新图生视频模型“Follow-Your-Pose-v2”,相干成果已经发表在 arxiv 上(IT之家附 DOI:10.48550/arXiv.2406.03035)。据介绍,“Follow-Your-Pose-v2”只需要输出一张人物图片和一段行动视频,就可以让图片上的人跟随视频上的行动动起来,生成视频长度可达 10 秒。与此前推出的模型相比,“Follow-Your-Pose-v2”可以在推理耗时更少的情况下,支持多人视频行动生成。此外,该模型具备较强的泛化威力,

腾讯混元团队联合中山大学、香港科技大学联合推出全新图生视频模型“Follow-Your-Pose-v2”,相干成果已经发表在 arxiv 上(IT之家附 DOI:10.48550/arXiv.2406.03035)。

腾讯联合中山大学、港科大推出图生视频模型“Follow-Your-Pose-v2”

据介绍,“Follow-Your-Pose-v2”只需要输出一张人物图片和一段行动视频,就可以让图片上的人跟随视频上的行动动起来,生成视频长度可达 10 秒。

与此前推出的模型相比,“Follow-Your-Pose-v2”可以在推理耗时更少的情况下,支持多人视频行动生成。

此外,该模型具备较强的泛化威力,无论输出人物是什么年龄、服装,背景如何杂乱,行动视频的行动如何复杂,都能生成出高质量的视频。

腾讯联合中山大学、港科大推出图生视频模型“Follow-Your-Pose-v2”

正如IT之家前一天的报道,腾讯已经公布了针对腾讯混元文生图开源大模型(混元 DiT)的加快库,号称大幅提升推理效率,生图时间收缩 75%。

官方表示,混元 DiT 模型的使用门槛也大幅降低,用户可以基于 ComfyUI 的图形化界面使用腾讯混元文生图模型威力。

相干阅读:

《腾讯混元文生图开源大模型加快库发布:生图时间收缩 75%》

给TA打赏
共{{data.count}}人
人已打赏
AI

全球 AI 规模“独角兽”企业达 37 家:已往一年新增 17 家,中国新增 5 家

2024-6-7 16:20:17

AI

准确率可达 70%,科学家利用 AI 解读狗的啼声

2024-6-7 19:40:32

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索