AI在线 AI在线

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

长期以来,扩散模型的训练通常依赖由变分自编码器(VAE)构建的低维潜空间表示。 然而,VAE 的潜空间表征能力有限,难以有效支撑感知理解等核心视觉任务,同时「VAE Diffusion」的范式在训练与推理效率上也存在显著瓶颈。 清华大学智能视觉团队和快手可灵团队联合推出《Latent Diffusion Model without Variational Autoencoder》与近期爆火的谢赛宁团队 RAE 工作不谋而合,但在总体设计思路与研究重点上有所差异。

长期以来,扩散模型的训练通常依赖由变分自编码器(VAE)构建的低维潜空间表示。然而,VAE 的潜空间表征能力有限,难以有效支撑感知理解等核心视觉任务,同时「VAE + Diffusion」的范式在训练与推理效率上也存在显著瓶颈。

清华大学智能视觉团队和快手可灵团队联合推出《Latent Diffusion Model without Variational Autoencoder》与近期爆火的谢赛宁团队 RAE 工作不谋而合,但在总体设计思路与研究重点上有所差异。

本篇文章通过直接结合预训练视觉特征编码器(如 DINO、SigLIP、MAE)结合残差信息学习预训练视觉特征编码器丢失的图片重建信息与专门训练的解码器,有效替代了传统 VAE,提升了表示质量与效率。

本文提出的系统性框架称为 SVG(Self-supervised representation for Visual Generation)。

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

  • 论文标题:Latent Diffusion Model without Variational Autoencoder
  • 论文链接:https://arxiv.org/abs/2510.15301
  • 项目链接:https://howlin-wang.github.io/svg/
  • 代码地址:https://github.com/shiml20/SVG

该论文同样对传统 VAE + Diffusion 的局限性进行了分析,发现其关键问题在于 VAE 空间存在非常明显的语义纠缠现象。VAE 的 latent 空间缺乏清晰语义结构,不同类别特征高度混合(论文通过 t-SNE 可视化验证,普通 VAE latent 中不同语义类别的特征点严重重叠),导致扩散模型需花费大量步数学习数据分布。

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

不同特征空间中不同语义类别的 t-SNE 可视化图

这种语义纠缠现象直接导致了两个关键问题:

  • 训练推理效率双低: 如下图中例子所示,如果语义纠缠程度高,那么即使给定了不同的语义条件,平均速度仍是难以区分的,模型在训练时就得花更多力气「理清」语义纠缠的特征。并且如果语义区分度较高,在空间中不同位置的速度方向也将更趋于一致,从而有助于减少采样过程的离散误差,支持少步数采样。

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

特征空间语义纠缠会对生成模型训练推理带来消极影响

  • 通用性差: VAE 依赖于重建损失进行训练,只适合生成任务,在感知理解这些视觉核心任务中的效果远不如专门的特征提取器。

考虑到各类视觉基础模型(如 DINO、SigLIP)已经构建出了具有优良语义结构的空间,研究者认为这类预训练视觉特征空间可能更适合生成模型的训练,同时也具有更强的可通用性。其中 DINO 特征在各种视觉下游任务中已经展现出了良好的性能,并且保留了基础的图像结构信息,具备比较高的重建潜力。

SVG 破局:

靠 DINO 搭地基,残差分支补细节

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

SVG 自编码器结构示意图

SVG 的核心思路很简单:用更强的语义结构解锁模型生成潜力,基于自监督特征构建统一特征空间。 

SVG 自编码器由「冻结的 DINOv3 编码器」、「轻量残差编码器」、「解码器」三部分组成,核心是通过多组件协作同时实现强判别性的语义结构与图像细节补充。

  • 冻结 DINOv3 编码器: 作为语义骨架,提供强判别性特征。DINOv3 通过自监督训练(对比学习 + 掩码建模),天然具备清晰的语义类别边界,同时,DINOv3 的特征已在多种视觉任务中验证有效性,为 SVG 的通用性奠定基础;
  • 轻量残差编码器: 弥补色差,补充细粒度细节。DINOv3 虽能捕捉全局语义,但会丢失部分细节(如色彩、纹理),导致重建质量差。SVG 设计了基于 ViT 的轻量残差分支,专门学习 DINOv3 未覆盖的高频细节,并通过「通道级拼接」与 DINO 特征融合;
  • 分布对齐机制:避免细节干扰语义。为防止残差特征破坏 DINO 的语义结构,SVG 将残差输出归一化后再根据 DINO 特征的均值和方差进行缩放,使其匹配 DINO 特征的分布,确保拼接后的 latent 空间既具备高保真重建能力,又有利于生成模型训练(消融实验显示,无对齐时生成 FID 从 6.12 升至 9.03,对齐后恢复至 6.11);
  • SVG 解码器: 参考传统 LDM 的 VAE 解码器结构,将融合后的 latent 特征映射回像素空间,确保生成图像的分辨率与细节还原度。

二者结合,构成了一个既有良好语义可区分性,又具有强重建能力的潜在空间。

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

重建效果展示图:残差编码器修复了图像色差问题,补充了高频细节

SVG 扩散训练:

直接在高维 SVG 特征空间学习

与传统 LDM 在 VAE 的低维(如 16×16×4)latent 空间训练不同,SVG 扩散模型直接在高维特征空间(16×16×392)训练。研究者指出,尽管之前的观点大多认为高维空间训练易导致生成模型收敛不稳定,但实验证明 SVG 空间良好的性质使得在这种高维度情况下,模型训练依旧稳定,甚至效率更高。

论文在 ImageNet 256×256 数据集上进行了全面实验,对比 SiT、DiT、MaskDiT 等主流 LDM,从生成性能、效率、多任务适配性三个维度验证 SVG 的优势,核心结果如下:

  • 生成质量:性能显著优于基线

在训练 80 个 epoch,25 步采样条件下,SVG-XL(675M 参数)的生成性能全面超越同规模基线:

无分类器引导(w/o CFG)时,SVG-XL 的 gFID 为 6.57,而 SiT-XL(SD-VAE)为 22.58、SiT-XL(VA-VAE)为 7.29;

有分类器引导(w/ CFG)时,SVG-XL 的 gFID 降至 3.54,SiT-XL(VA-VAE)为 4.13。

若延长训练至 1400 个 epoch,SVG-XL 的 gFID 可进一步降至 1.92(w/ CFG),接近当前生成模型 SOTA 水平。

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

  • 训练与推理效率:大幅降低资源消耗

训练效率: 在 w/o CFG 设定下,SVG-XL 仅需 80 个 epoch 即可达到 SiT-XL 1400 个 epoch 的生成质量(gFID 6.57 vs 9.35);

推理效率: 消融实验中,5 步采样时,SVG-XL 的 gFID 为 12.26(w/o CFG),而 SiT-XL(SD-VAE)为 69.38、SiT-XL(VA-VAE)为 74.46,展现了良好的少步数推理性能。

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

  • 多任务通用性:统一特征空间适配多视觉任务

SVG 的 latent 空间继承了 DINOv3 的良好性质,可直接用于分类、分割、深度估计等任务,无需额外微调编码器:

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

消融实验结果证明 SVG 编码器完全保持了 DINOv3 编码器的性能。这一结果验证了 SVG 作为统一表征空间的可行性。

  • 定性分析:插值平滑性与可编辑性

研究者发现 SVG 空间中的随机噪声在直接线性插值与球面线性插值下均能生成平滑过渡的图像;而传统 VAE 空间中直接线性插值可能产生较差的中间结果。这证明了 SVG 空间的鲁棒性。

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

研究者还对 SVG 进行了零样本编辑实验,证明基于 SVG 空间的生成模型依然具备 VAE + Diffusion 模型所具备的可编辑性。

无VAE扩散模型! 清华&可灵团队「撞车」谢赛宁团队「RAE」

总结

SVG 的核心价值并非单纯「弃用 VAE」,而是通过「自监督特征 + 残差细节」的组合,证明了「生成、理解与感知共享统一 latent 空间」的可行性。这一思路不仅解决了传统 LDM 的效率与通用性痛点,更为后续通用视觉模型的研发提供了新的思路。

在总体思路上,该论文关键思路与谢赛宁团队的 RAE 高度相似,都验证了在生成模型训练中用预训练视觉特征编码器替代 VAE 的可行性。RAE 工作更多侧重于如何优化改善扩散模型在这种高维度特征空间的训练,而本文解决了单纯依赖预训练视觉特征编码器带来的重建效果差的问题,从而也为该方法用于统一生成编辑模型初步验证了可行性。

更多细节请参阅原论文。

相关资讯

东京大学 | Adobe 提出InstructMove,可通过观察视频中的动作来实现基于指令的图像编辑

InstructMove是一种基于指令的图像编辑模型,使用多模态 LLM 生成的指令对视频中的帧对进行训练。 该模型擅长非刚性编辑,例如调整主体姿势、表情和改变视点,同时保持内容一致性。 此外,该方法通过集成蒙版、人体姿势和其他控制机制来支持精确的局部编辑。
1/20/2025 10:36:00 AM
AIGC Studio

阿里发布新ID保持项目EcomID, 可从单个ID参考图像生成定制的保ID图像,ComfyUI可使用

阿里妈妈发布了一个新的ID保持项目EcomID,旨在从单个ID参考图像生成定制的保ID图像,优势在于很强的语义一致性,同时受人脸关键点控制。 EcomID 方法结合了 PuLID 和 InstantID 的优点,以获得更好的背景一致性、面部关键点控制、更真实的面部以及更高的相似度。 目前,EcomID 的 Comfyui 原生实现官方插件也已经发布,大家可以从文章中的链接获取。
1/20/2025 11:00:00 AM
AIGC Studio

o1推理框架最新成果:斯坦福&伯克利提出元链式思维,升级模型推理能力

o1背后的推理原理,斯坦福和伯克利帮我们总结好了! 在最新的一篇长达100页的论文中,他们将o1模型背后的推理机制提炼成了一个通用的框架——元链式思维(Meta-CoT)。 这个元链式思维(Meta-CoT)到底是什么意思呢?
1/20/2025 1:08:25 PM
量子位
  • 1