AI在线 AI在线

0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

最近,文生视频模型 Sora 掀起了新一轮生成式 AI 模型浪潮,模型的多模态能力引起广泛关注。现在,AI 模型在 3D 内容生成方面又有了新突破。专长于视觉内容生成的 Stability AI 继图片生成(Stable Difussion 3 上线)、视频生成(Stable Video 上线)后紧接在 3D 领域发力,今天宣布携手华人团队 VAST 开源单图生成 3D 模型 TripoSR。TripoSR 能够在 0.5s 的时间内由单张图片生成高质量的 3D 模型,甚至无需 GPU 即可运行。TripoSR 模

最近,文生视频模型 Sora 掀起了新一轮生成式 AI 模型浪潮,模型的多模态能力引起广泛关注。

现在,AI 模型在 3D 内容生成方面又有了新突破。

专长于视觉内容生成的 Stability AI 继图片生成(Stable Difussion 3 上线)、视频生成(Stable Video 上线)后紧接在 3D 领域发力,今天宣布携手华人团队 VAST 开源单图生成 3D 模型 TripoSR。

图片

TripoSR 能够在 0.5s 的时间内由单张图片生成高质量的 3D 模型,甚至无需 GPU 即可运行。0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

TripoSR 模型代码:https://github.com/VAST-AI-Research/TripoSR

TripoSR 模型权重:https://huggingface.co/stabilityai/TripoSR

TripoSR Demo:https://huggingface.co/spaces/stabilityai/TripoSR

TripoSR 在 NVIDIA A100 上测试时,它能够在大约 0.5 秒内生成草图质量的带纹理 3D 网格模型,性能超越了其他开源图像到 3D 模型,如 OpenLRM。除了速度之外,TripoSR 对有无 GPU 的用户都完全可用。

TripoSR 的灵感来源于 2023 年 11 月 Adobe 提出的 LRM,这是一个用于图生 3D 的大规模重建模型(Large Reconstruction Model,简称 LRM),可以基于任意单张输入图像在数秒钟得到图像对应的三维模型。

LRM 突破性地将图生 3D 模型任务表述成了一个序列到序列的翻译任务 —— 把输入图像和输出的 3D 模型分别想象成两种不同的语言,图生 3D 任务可以被理解为把图像语言翻译成 3D 模型语言的过程。图像语言中的 “单词”(类比语言模型的 token 和视频模型的 patch)是用户输入图像切分成的一个个小块;而在 LRM 方法中,3D 模型语言的 “单词” 是一种被称为 “三平面(triplane)” 的三维表示中的一个个小块,LRM 做的事情就是把图像语言中的 “单词” 翻译成 3D 模型语言中的 “单词”,实现输入图像输出 3D 模型。

在 transformer 架构的支撑下,LRM 在一百余万公开三维数据上进行了训练,展示出了现象级的图生 3D 效果和效率,因此在学界、业界均引起了很大的轰动。然而其相关代码和模型均不开源,巨大的训练代价(128 块 A100 运行一周)也令小型研究组织望而生畏,这些因素极大阻碍了该项技术的平民化发展。

本次 Tripo AI 和 Stability AI 联合共同推出了首个 LRM 的高质量开源实现 - TripoSR,可以几乎实时根据用户提供的图像生成高质量的三维模型,极大地填补了 3D 生成式人工智能领域的一个关键空白。0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

根据 Stability 的博客和技术报告,该模型基于 LRM 的原始算法,通过精细筛选和渲染的 Objaverse 数据集子集以及一系列的模型和训练改进,显著提高了从有限训练数据中泛化的能力,同时也增强了 3D 重建的保真度。直至 TripoSR 的出现,学术界和开源界一直缺少一个开放、快速、且具备强大泛化能力的 3D 生成基础模型和框架。之前尽管存在如 threestudio 这样受到广泛关注的开源项目,但由于其依赖的技术(比如 score distillation sampling)需要较长的优化和计算时间,使得生成一个 3D 模型既缓慢又资源消耗巨大。Stability AI 此前在这一路线上发布的 Stable Zero123 项目及其在 threestudio 中的集成尝试,虽然取得了一定进展,但仍未能充分解决这些问题。

TripoSR 开源使全球的研究人员、开发者和创意工作者能够访问到最先进的 3D 生成 AI 模型,使各类公司能够利用 3D 内容创建更复杂的产品和服务、探索 3D 行业新的创造可能性,促进一个更加活跃和有竞争力的市场。

图片

                                      图表显示了 3D 性能的 F-Score(越高越好)与推理时间(越低越好)的关系。

3D 内容生成技术在计算机图形学和计算机视觉领域近年来经历着稳步的发展。在过去一年多时间内,特别是随着大规模公开 3D 数据集的出现以及 2D 图像视频领域强大生成模型的进步,3D 生成技术实现了巨大和快速的进步,引起了工业界广泛关注。在这一背景下,诸如 DreamFusion(由 Google Research 团队提出)等基于 score distillation sampling(SDS)的技术,虽然在多视角生成 3D 模型方面取得了突破,但在实际应用中仍面临生成时间长、难以精细控制生成模型等限制。

与此相对,基于大规模 3D 数据集和大规模可扩展模型架构的生成技术方案,如此次发布的 TripoSR,展现了在不同 3D 数据集上进行高效训练的能力,其生成 3D 模型过程仅需快速前向推理,并能在生成过程中易于对 3D 模型结果进行精细控制。该类技术的出现,不仅为 3D 生成技术的快速发展开辟了新的道路,也为业界的更广泛应用提供了新的可能性。

图片

图片

                                  图片和数据来源:TripoSR: Fast 3D Object Reconstruction from a Single Image

值得关注的是,Stability AI 此次与 Tripo AI 联合开源。Tripo AI 背后的研究机构 VAST AI Research 作为 3D 内容生成领域的新锐研究团队,从创立之初就致力于开源社区贡献,相继开源了 Wonder3D、CSD、TGS 等优质研究工作的代码和权重。

Tripo 是 VAST 自 2023 年 12 月推出的通用 3D 生成模型(www.tripo3d.ai)。能实现 8 秒内通过文字或图片生成 3D 网格模型,并通过 5 分钟进行精细化生成,生成模型质量在几何和材质层面都接近手工水平。

根据 VAST AI Research 的博客,AI 在 3D 生成领域的长足发展需要采取一种 “通用方法”,跳出对人类经验的依赖,通过更庞大的数据、更可扩展的模型和充分利用强大计算能力来 “学习”。这一 “通用方法” 应包含多种模态训练数据的统一、多种模态控制条件的统一以及多种模态通用的生成模型基础架构。

为实现这一目标,VAST 认为需要从表示、模型和数据三个方向进行工作。其中,“表示” 的选择至关重要,需要寻找一种既灵活、又利于计算的 3D 表示形式,同时确保与现有图形管线的兼容性。此外,探索 “3D tokenizer” 也是一种有前景的方向,将 3D 表示转化为类似于语言 token 的形式,有助于将现有的理解和生成模型应用于 3D 领域。

在 “模型” 层面,VAST 的研究旨在充分利用大模型在其他模态下的先验知识、设计准则和训练经验,以增强模型对 3D 数据的学习能力。而 “数据” 层面的挑战也不容忽视,优质、原生、多样化的 3D 数据集资源的稀缺限制了模型的最终表现和泛化能力。

TripoSR 让我们看到了生成式 AI 模型在 3D 方向的潜力,我们期待 2024 年 3D 生成领域将会有更多新的探索。

参考链接:

https://stability.ai/news/triposr-3d-generation?utm_source=x&utm_medium=website&utm_campaign=blog

相关资讯

人工智能快速出图!盘点 4 款人气超高的 AI 绘画神器

大家好,我是和你们聊设计的花生~
6/22/2022 1:50:09 AM
夏花生

重磅发布!Stable Video 零基础使用教程及应用案例

前言 上周 Stable Video 开放公测,可以生成 4s 视频,我第一时间体验了一波。 相比 Sora 可生成 60s 多角度多机位多角色的视频,Stable Video 效果没有那么惊艳。但是相比市面上主流的 AI 视频 Runway、pika 等还是有一定优势的,下文中我也会进行效果对比。 目前 Stable Video 对所有用户都可以免费开发,每天可领 150 积分,图生视频每使用一次消耗 10 积分,文生视频消耗 11 积分,还可以付费升级。 接下来让我们一起来试一试吧。 关于 Sora:一、初步体
2/28/2024 7:39:34 AM
yaoyao

Google、Meta又放大招!用嘴做视频的时代也要来了

大家好,这里是和你们聊设计的花生~ 近段时间 AI 工具发展势头越发迅猛,在为大家介绍过的 AI 模型中,DALLE·2 和 Midjourney 在文本生成图像的质量和精准度上有了大幅度优化提升,后起之秀 Stable Diffusion 则将 AI 模型的操作门槛降低到普通人都能轻松入门的高度。除了这些着力发展文本-图像(text-image)模型的科技公司,我在 8 月份也向大家概括地介绍过 Google、微软、Facebook 这些我们熟悉的互联网科技巨头在文本-图像 AI 模型上的研发成果,也同样有不凡的
10/11/2022 7:47:58 AM
夏花生

突破视频多模态大模型瓶颈!「合成数据」立大功,项目已开源

AIxiv专栏是AI在线发布学术、技术内容的栏目。过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
10/21/2024 1:02:00 PM
机器之心

SALMONN 系列音视频理解大模型霸榜回归!推理增强、高帧率、无文本泄漏全线突破

SALMONN 家族在首个通用音频理解模型(ICLR 2024)和首个全要素音视频理解模型 video-SALMONN(ICML 2024)基础上再次迎来重磅扩容,霸榜各大音视频理解榜单! 全新一代 video-SALMONN 2/2 、首个开源推理增强型音视频理解大模型 video-SALMONN-o1(ICML 2025)、首个高帧率视频理解大模型 F-16(ICML 2025),以及无文本泄漏基准测试 AVUT(EMNLP 2025) 正式发布。 新阵容在视频理解能力与评测体系全线突破,全面巩固 SALMONN 家族在开源音视频理解大模型赛道的领先地位。
9/29/2025 3:20:00 PM
机器之心

国内高校打造类Sora模型VDT,通用视频扩散Transformer被ICLR 2024接收

2 月 16 日,OpenAI Sora 的发布无疑标志着视频生成领域的一次重大突破。Sora 基于 Diffusion Transformer 架构,和市面上大部分主流方法(由 2D Stable Diffusion 扩展)并不相同。为什么 Sora 坚持使用 Diffusion Transformer,其中的原因从同时期发表在 ICLR 2024(VDT: General-purpose Video Diffusion Transformers via Mask Modeling)的论文可以窥见一二。这项工作由
2/25/2024 7:36:00 PM
机器之心

可从单张图像创建多视图 3D 视频,Stability AI 发布 Stable Video 3D 模型

Stability AI 近日发布了 Stable Video 3D 模型,该模型可从单张图像创建多视图 3D 视频。▲ 图源 Stability AI,下同Stable Video 3D 包含两个变体,其中 SV3D_u 能基于单个图像输入生成轨道视频,无需相机调节;而 SV3D_p 扩展了 SVD3_u 的功能,其可容纳轨道视图,允许沿着指定的摄像机路径创建 3D 视频。相较之前的 Stable Zero123 模型或开源替代品 Zero123-XL,Stable Video 3D 在质量上有明显提高,并具有更
3/21/2024 10:53:01 AM
溯波(实习)

Stable Video Diffusion来了,代码权重已上线

Stability AI 的视频生成模型看来效果不错。AI 画图的著名公司 Stability AI,终于入局 AI 生成视频了。本周二,基于 Stable Diffusion 的视频生成模型 Stable Video Diffusion 来了,AI 社区马上开始了热议。很多人都表示「我们终于等到了」。项目地址:,你可以基于原有的静止图像来生成一段几秒钟的视频。基于 Stability AI 原有的 Stable Diffusion 文生图模型,Stable Video Diffusion 成为了开源或已商业行列中
11/22/2023 3:30:00 PM
机器之心

Stable Video 3D震撼登场:单图生成无死角3D视频、模型权重开放

3D 生成领域迎来新的「SOTA 级选手」,支持商用和非商用。Stability AI 的大模型家族来了一位新成员。昨日,Stability AI 继推出文生图 Stable Diffusion、文生视频 Stable Video Diffusion 之后,又为社区带来了 3D 视频生成大模型「Stable Video 3D」(简称 SV3D)。该模型基于 Stable Video Diffusion 打造,能够显著提升 3D 生成的质量和多视角一致性,效果要优于之前 Stability AI 推出的 Stable
3/20/2024 2:48:00 PM
机器之心

超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片

北大团队联合兔展发起的 Sora 复现计划,现在有了新成果。OpenAI 在今年年初扔出一项重大研究,Sora 将视频生成带入一个新的高度,很多人表示,现在的 OpenAI 一出手就是王炸。然而,众多周知的是,OpenAI 一向并不 Open,关于 Sora 的更多细节我们无从得知。谁能率先发布类 Sora 研究成了一个热门话题。今年 3 月初,北大团队联合兔展启动了 Sora 复现计划 ——Open Sora Plan,该项目希望通过开源社区的力量复现 Sora。项目上线一个月,星标量已经达到 6.6k。项目地址
4/8/2024 2:50:00 PM
机器之心

Sora2公布提示词指南!直接抄作业能玩一整天!

最近你要问我什么最火,我可能会毫不犹豫地告诉你:Sora 2。 这玩意以一种不讲武德的姿态,短短7天狂飙62.7万下载量,把前辈GPT都拍在了沙滩上,直接登顶了App Store的榜首。 连奥特曼都亲自下场盖章,说这是创意领域的GPT 3.5时刻。
10/11/2025 8:30:55 AM
彭彭

掌握这10条实用技巧,让Sora2生成AI视频更真实!

本文作者系360奇舞团前端开发工程师。 最近 Sora2 推出后迅速流行,其对于音画生成结合的能力,让画面常常有以假乱真的效果,但有时大概也会有这种感觉:画面已经够清晰了、动作也顺畅了,可有时它依然“假”——像是一个完美的模拟,却没有那种“被镜头记录下来”的感觉。 其中原因是:AI生成的是内容,而真实视频包含的是物理规律 摄影语言 人的意图。
10/24/2025 2:09:18 AM

SD WebUI 中也能用上实时绘画了!支持接入PS/Blender 等设计工具

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家介绍过 AI 绘画工具 Krea,它可以根据手绘的草图实时生成完整的画面,可以让我们更精准地控制图像效果,对电商、产品、游戏概念等设计领域来说非常有帮助。之前为大家推荐过一种在 ComfyUI 中免费实现 AI 实时绘画的方式,今天就再为大家推荐另一种在 Stable Diffusion WebUI 中实现实时绘画的方法。一、插件简介 SD WebUI 的实时绘画功能需要借助一个插件实现,这个插件是上周由 B 站 AI 绘画博主@朱尼酱推出,支持文生图、图
1/23/2024 6:55:37 AM
夏花生

新模型 Stable Diffusion 3 与 Stable Cascade 全面解析

大家好,我是花生~ 最近 Stability AI 又接连推出了 2 个新的模型:Stable Diffusion 3 和 Stable Cascade,在图像生成效率和质量上比半年前推出的 SDXL 1.0 有了明显提升,今天就为大家介绍一下 2 款新模型的特点和用法。 :一、Stable Diffusion 3 简介 官方介绍: 加入等候名单: 2 月 22 号,Stability AI 发布了新模型 Stable Diffusion 3(下面简称为 SD 3.0),这也是 Stable Diffusion
2/26/2024 8:13:29 AM
夏花生

国内公司有望做出Sora吗?这支清华系大模型团队给出了希望

在 Sora 代表的视频生成路线上,国内公司其实已有一定的技术储备。2023 年年底,很多人都预测,未来一年将是视频生成快速发展的一年。但出人意料的是,农历春节刚过,OpenAI 就扔出了一个重磅炸弹 —— 能生成 1 分钟流畅、逼真视频的 Sora。它的出现让很多研究者担心:国内外 AI 技术的差距是不是又拉大了?                             Sora 生成的新视频根据 OpenAI 披露的技术报告,Sora 的核心技术点之一是将视觉数据转化为 patch 的统一表示形式,并通过 Tr
2/26/2024 6:51:00 PM
机器之心

谷歌 DeepMind 新研究:利用 AI 模型为无声视频配音

据谷歌 DeepMind 新闻稿,DeepMind 近日公布了一项利用 AI 为无声视频生成背景音乐的“video-to-audio”技术。IT之家获悉,当前 DeepMind 这款 AI 模型依然存在局限性,需要开发者使用提示词为模型预先“介绍”视频可能的声音,暂时不能直接根据视频画面添加具体音效。据悉,该模型首先会将用户输入的视频进行拆解,此后结合用户的用户文字提示,利用扩散模型反复运算,最终以生成与视频画面协调的背景声音,例如输入一条“在黑暗中行走”的无声视频,再添加“电影、恐怖片、音乐、紧张、混凝土上的脚步
6/18/2024 10:23:41 PM
漾仔

Meta生成式AI连放大招:视频生成超越Gen-2,动图表情包随心定制

生成式 AI 进入视频时代了。提到视频生成,很多人首先想到的可能是 Gen-2、Pika  Labs。但刚刚,Meta 宣布,他们的视频生成效果超过了这两家,而且编辑起来还更加灵活。这个「吹小号、跳舞的兔子」是 Meta 发布的最新 demo。从中可以看出,Meta 的技术既支持灵活的图像编辑(例如把「兔子」变成「吹小号的兔子」,再变成「吹彩虹色小号的兔子」),也支持根据文本和图像生成高分辨率视频(例如让「吹小号的兔子」欢快地跳舞)。其实,这其中涉及两项工作。灵活的图像编辑由一个叫「Emu Edit」的模型来完成。
11/18/2023 9:56:00 AM
机器之心

视频生成新突破:PixelDance,轻松呈现复杂动作与炫酷特效

AI 生成的视频终于能动了。最近,除了大语言模型继续持续刷屏,视频生成技术也取得了重大进展,多家公司相继发布了新模型。首先,作为最早探索视频生成领域的领头羊之一,Runway 升级了其 Gen-2 模型,带来了电影级别的高清晰度,令人瞩目,并称视频生成的一致性得到了重大改进。但是,这种一致性的提升似乎是以牺牲视频动态性为代价的。从 Gen-2 的官方宣传视频中可以看出,尽管集合了多个短片段,但每个片段的动态性相对较弱,难以捕捉到人物、动物或物体的清晰动作和运动。近期,Meta 也发布了视频生成模型 Emu Vide
11/24/2023 3:18:00 PM
机器之心
  • 1