AI在线 AI在线

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

可控图片生成,如今已经不是什么新鲜事。 甚至也不需要复杂的提示词,用户通过简单的文本描述,就能快速生成符合个人需求的创意图像。 不过仍然有一些局限:比如说,虽然可以实现单一任务(如身份、主体、风格、背景等)的定制化设计,可是一旦条件增多,就会出现“鱼和熊掌不可兼得”的问题。

可控图片生成,如今已经不是什么新鲜事。甚至也不需要复杂的提示词,用户通过简单的文本描述,就能快速生成符合个人需求的创意图像。

不过仍然有一些局限:

比如说,虽然可以实现单一任务(如身份、主体、风格、背景等)的定制化设计,可是一旦条件增多,就会出现“鱼和熊掌不可兼得”的问题。

只有小孩子才做选择题,成年人当然是全都要!

字节跳动与北京大学联合起来,证明了“全都要”的可行性:一种支持多条件组合的统一图像定制化生成框架——DreamO,堂堂登场。

这个框架通过单一模型便可以实现主体、身份、风格及服装参考的多样化定制,并支持不同控制条件的自由组合,非常适应实际应用中的复杂需求。

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

△参考多个主体的生成结果

那么就有人问了,他们是怎么做到的呢?这个框架和现有的商业大模型相比有什么优势呢?

一起来看技术细节。

DreamO:成本更低、速度更快

字节跳动和北大团队提出了统一的图像定制化生成框架DreamO,以极低的训练参数量(400M),就实现了如下图所展示的多种类型高质量图像定制化结果:

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

该工作旨在通过单一模型完成各种定制化任务。

比如说,以小怪物为参考,让它在山上欢呼:

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

又比如说,让漂亮的姑娘在花海里起舞:

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

根据参考,生成一张魔幻风格的城堡:

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

或者大胆一点——地狱风格的小狗怎么样?

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

还可以参考多个主体,把他们组合起来:

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

让隔着时间或者空间的人出现在同一张照片上:

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布将该模型与GPT-4o等一众商业大模型做对比,尽管在语义理解、定制多样性上还有差距,但该模型展现出了极强的一致性保持能力,甚至在一定程度上超越了一些商业大模型。

与商用模型相比,DreamO开源、成本更低、速度也更快——8~10s即可完成一张图片的定制化生成。

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

方法整体框架

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

△DreamO的整体框架

该方法基于Flux-1.0-dev构建了一个统一的图像定制框架,支持风格、身份、外观和试穿等功能。

首先,复用Flux的VAE将条件图像编码为隐空间表征,随后序列化,与文本和图像token合并输入Flux模型,为处理条件图像输入,引入了专门的映射层。

另外,该方法为条件隐变量加入了可学习的条件嵌入(CE)和索引嵌入(IE),并通过低秩自适应(LoRA)模块优化模型,从而支持多条件任务。

渐进式的训练策略

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

直接在所有数据上训练会导致收敛困难,主要由于优化参数容量有限,难以在复杂数据分布中捕捉特定任务能力;而训练数据的图像质量问题也使生成结果偏离Flux的高质量生成先验。

为解决这些问题,DreamO提出了渐进式训练策略

在第一阶段,在主体驱动的数据上优化模型,确保一致性,并利用与模型生成空间分布相似的Subject200K数据集加速收敛。使模型获得了初步的一致性保持能力。

在第二阶段,模型进行全数据训练,逐渐掌握各种任务能力。但生成质量容易受低质量训练样本影响。

在图像质量优化的第三阶段,通过Flux生成40K样本,以原始图像(丢弃95%的信息)为参考进行自我重建。

经过第三阶段优化后,图像的生成质量显著提高,与Flux的生成先验对齐。

针对参考图的路由约束

该方法在DiT架构中设计了路由约束用于精准限制参考图的作用区域。

在条件引导框架中,条件图像与生成结果之间存在交叉注意力关系,如下所示:八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布表示条件图像与生成结果的相似度。

通过沿条件图维度平均该相似度矩阵,可以得到条件图对生成结果的全局相似度响应。

训练过程中,使用条件物体在生成结果中对应的mask作为ground truth约束条件图的相似度响应范围:八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

实验结果显示,经过路由约束的训练后,条件图的相似度响应更加集中,生成结果的保真度更高。

八秒极速生成!复杂场景图像定制低成本轻松驾驭,已开源丨字节北大联合发布

另外,为了支持DreamO的多任务优化,作者构建了大规模包含各种任务的训练数据,例如风格迁移、单主体保持、多主体保持、单ID保持、多ID保持、ID风格化,以及虚拟试衣等。

更多细节请参考该方法的技术报告。

论文地址:https://arxiv.org/pdf/2504.16915项目主页:https://mc-e.github.io/project/DreamO/代码仓库:https://github.com/bytedance/DreamOHugging Face演示:https://huggingface.co/spaces/ByteDance/DreamO

相关资讯

OpenAI在图片领域站起来了!

出品 | 51CTO技术栈(微信号:blog51cto)26日凌晨,OpenAI推出了GPT4o图像生成,可以说解决了此前Midjourney等扩散模型很难解决的问题,业内为之大为赞叹。 这是用手机拍摄的玻璃白板的广角图像,拍摄地点是一间俯瞰海湾大桥的房间。 视野中可以看到一位女士正在写字,她身穿一件印有大型 OpenAI 标志的 T 恤。
3/26/2025 9:29:12 AM

写给小白的大模型入门科普

什么是大模型? 大模型,英文名叫Large Model,大型模型。 早期的时候,也叫Foundation Model,基础模型。
11/22/2024 10:45:20 AM
小枣君

耶鲁大学和Adobe提出SynthLight:智能重塑人像照明,打造完美光影

耶鲁大学和Adobe提出一种用于人像重新照明的扩散模型SynthLight,该方法将图像重新照明视为重新渲染问题,其中像素会根据环境照明条件的变化而变化。 在真实肖像照片上可以产生逼真的照明效果,包括颈部的明显投射阴影和皮肤上的自然镜面高光。 相关链接论文:: 是一种用于人像重新照明的扩散模型。
2/11/2025 10:01:19 AM
AIGC Studio
  • 1