AI在线 AI在线

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

今天我会分享更简单的整合包安装,以及考虑到有些朋友的电脑硬件可能不给力,也分享一种最简单的云端安装方式。最后还会分享好用的绘画插件以及 AI 绘画资源包,值得收藏和分享。 更多Stable Diffusion 教程:一、一键安装 stable diffusion 整合包 对于使用 windows 系统的朋友来说,推荐使用 B 站大佬秋葉 aaaki 的整合包。 整合包安装特别简单,也没什么太多值得写的东西,大家自行去 B 站看这个教程:当视频在手机上无法加载,可前往PC查看。或者在文末和开头用我整合在一起的 AI

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

今天我会分享更简单的整合包安装,以及考虑到有些朋友的电脑硬件可能不给力,也分享一种最简单的云端安装方式。最后还会分享好用的绘画插件以及 AI 绘画资源包,值得收藏和分享。

更多Stable Diffusion 教程:

一、一键安装 stable diffusion 整合包

对于使用 windows 系统的朋友来说,推荐使用 B 站大佬秋葉 aaaki 的整合包。

整合包安装特别简单,也没什么太多值得写的东西,大家自行去 B 站看这个教程:

当视频在手机上无法加载,可前往PC查看。

或者在文末和开头用我整合在一起的 AI 绘画资料包也可以,我把整合包、插件包和模型都放在一起了,方便大家下载安装。

二、云端安装

其实在去年的教程《当下最火的 AI 作画,让手残也能成为艺术家,分享我的入门经验和教程》里,我就写过云端安装的方法。

这里也再重新写下,方法会更简单。这个过程,网速快的话,不到 3 分钟安装完。如果你的电脑不够给力,可以用这种云端方式。

1. 利用 colab 进行启动文件安装

先进到 colab,在电脑(我测试过在手机上也可以跑这套流程,但不建议,界面 UI 会非常糟糕)上打开这个链接:https://colab.research.google.com/github/TheLastBen/

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

colab 打开后的安装界面

2. 按序号逐个点击左边的图标运行代码

每个部分执行完后会显示 done

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

一定要按顺序来操作

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

当最后一步出现这个链接时,代表安装完成。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

点这个链接就能看到 stable diffusion 操作界面了。

跟本地几乎是一样的,只不过这次用上了谷歌云盘作为放 stable diffusion 主程序和模型的地方。

3. 再次启动

如果你已经按我上面说的安装过,下次再启动时,只需要启动最后一个运行图标即可用上 stable diffusion,还是很方便的。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

提醒一点:在完成工作后记得关闭 Colab 标签页,因为它的内存是动态变化的,如果你开启服务后不关页面,也会算你在使用额度,可能会出现提醒你额度不足。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

3. 插件安装

插件是安装在 extensions 目录中,安装方法也很简单。

大部分的插件都在 Extensions—available中可以找到,点下Load from就可以看到,然后选择你想要的插件点Install安装就行。(这里提醒下,有时候通过这种方式不一定能安装成功,可以多尝试几次)

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

或者可以用我给的插件安装包,把插件复制到本地 stable diffusion 的扩展文件夹中,这样安装是最不容易出错的。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

安装好了之后,一定要重启 UI 界面才能看到插件。(提醒下,这里的重启 UI 界面是需要点击"重启按钮",刷新页面是没用的)

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

点这里重启 UI

这里给一个小技巧:有时候需要经常打开安装目录放自己的模型和插件,在终端里进行操作打开是非常方便的。先用上下键找到自己之前的命令记录:cd stable-diffusion-webui,回车进到自己的安装目录,然后输入“open .” 命令,直接回车打开文件目录。

这里我也给大家推荐几个最常用的基础插件

1. 中英对照 tag 自动补齐

https://github.com/DominikDoom/a1111-sd-webui-tagcomplete.git

这个插件能汉化 UI 界面、Tag 自动补全、提示词 prompt 翻译等功能,解决英文不好的问题,有效减少用翻译软件的时间,不过测试发现词库并不全,有些可能还会用到翻译软件。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

使用效果如上,还是很实用的

想要安装这个插件,需要先装一个前置插件,叫“a1111-sd-webui-tagcomplete-main” 安装方法和前面一样,可以搜“booru tag autocompletion”点击安装

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

也可以在 github 上下载插件压缩包,解压后放到本地文件夹的目录里。推荐用第二种方式安装,更顺利。安装包资料我也放到了文末的资源包中。

安装完后如何启用呢?

前置插件安装完了之后,可以在 settings 界面下找到 tag autocomplete,然后选择 tag filename 下选择 zh_zn.csv,最后点击应用设置,重启 UI 界面就可以用了。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

安装完插件后,一定要重启 UI 才能生效(点开图片可以看大图)

如果你想把整个界面都汉化的话,也可以把我在文末给你的插件包都装上,然后在 user interface 中一直拉到最后,选择中文。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

最后应用并重启,就得到了中文界面了。(其实我个人更喜欢英语界面,如果你装完需要返回英文的话,反向操作即可)

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

中文界面

2. 利用 Ultimate 输出高清图片

https://github.com/Coyote-A/ultimate-upscale-for-automatic1111.git

Stabel diffusion 在生成大尺寸图时容易爆显存,而且生成速度非常慢。这个插件能很好地解决这个问题。

使用方法是在“图生图”里上传一张我们希望高清放大的图片,然后点击脚本选择 Ultimate 插件

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

虽然这里参数很多,但其实只需要关注几个参数:

把 Target size type 改到 custom size 定义具体尺寸或者改成 scale from image size 选择放大倍数。把重绘幅度(Denoising)改到 0.2,最后点生成。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

因为是做放大处理,需要的时间可能比较久一些。我放大一张 1536x2256 的图到 3072x4544,花了 3 分 46 秒。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

左边是放大前的图,右边是放大后的图

3. ControlNet

这个插件是玩 stable diffusion 必须装上的插件,功能非常强大,我觉得正是有了这个插件,才让 sd 变得真正区别于 midjourney 的地方。我打算单开一篇来讲,因为这个插件可以玩的功能很多,还都非常实用。

插件的官方地址和安装使用说明都在这里,有精力的话强烈建议读一读

https://github.com/Mikubill/sd-webui-controlnet

但如果你看英文文档容易犯困,实操过程中又会发现很多细节讲得不多,会遇上不少卡点疑惑,放心,看这篇:

今天这篇文章先简单讲下它的安装,其实安装不算复杂,但有些概念需要理清楚:

先在扩展里选择从网址安装,把这个链接贴进去。

https://github.com/Mikubill/sd-webui-controlnet.git

注意:这里安装的是 v1.1 版本了,模型效果会更好一些,另外界面 UI 也有了一些变化,所以文章仔细看咯。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

等“安装”按钮下面提示安装好了之后

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

按提示重启 UI 界面

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

重启完成后,你应该能在文生图和图生图里看到这个插件了

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

如果你不清楚如何设置好它,可以参考我的配置图

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

点开可以看大图,设置完成后同样需要重启 UI

对于这个插件来说,它还需要装一些模型文件。如果你不安装的话,具体使用的时候它也会自动帮你下载,只是模型都比较大,可能你需要等很久。

模型分为预处理模型和 Controlnet 所需要的模型(这个模型也有裁剪版本和完整版本),假如你电脑空间大,懒得折腾就直接先下载完整模型,后面再去研究改进的裁剪模型吧。(这些模型资源我都已经打包好在文末的百度云盘里,方便你快速下载)

先安装预处理模型,从这个地址下载预处理模型:

https://huggingface.co/lllyasviel/Annotators/tree/main

然后放到以下目录中

stable-diffusion-webui\extensions\sd-webui-controlnet\annotator

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

也可以用我后面给到的 AI 绘画资源包里直接下载,会快一些。

再来安装 controlnet 所需模型,从这里下载

https://huggingface.co/comfyanonymous/ControlNet-v1-1_fp16_safetensors/tree/main

然后把它放到以下目录中

stable-diffusion-webui\extensions\sd-webui-controlnet\models

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

我这里分享的都是最新的 v1.1 版本,需要提醒的是它与 v1.0 版本有一个很大的区别,就是界面 UI 发生了很大的变化,一些操作按钮消失了。

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

点这个爆炸按钮就能看到预渲染效果

因为 UI 上的变化,我一度觉得我自己装的不对,后面在官方给的文档中才发现原来是点这个爆炸按钮来操作的。这也说明了在版本迭代时,不应该变动太多,会让用户有一定的学习成本,尤其对于一个初次使用的用户来说,用户体验呀。

安装教程就到这里了,那它到底有哪些用途呢?先用官方图片简单介绍下,下期再详细用案例来讲解。也可以自行先预习下

https://github.com/lllyasviel/ControlNet-v1-1-nightly

我列一些我觉得特别厉害的功能

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

深度图生成

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

法线图生成

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

精细描边生成图

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

直线描边生成图

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

涂鸦生成

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

动作 pose 生成

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

多人动作 Pose

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

动漫线稿上色

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

遮罩填充修复(换脸换服装部件,电商换模特非常好用)

在写这个插件的时候,卡了我蛮久,主要是 v1.0 版本和 v1.1 版本之间的 UI 区别比较大,最新版本把确认预览按钮改成了一个爆炸图标,属实难以理解,导致第一次用的时候一直觉得自己安装错了,论 UI 设计的重要性。

不过也正是由于这个问题,让我把 1.0 版本和 1.1 版本之间的差异性弄的很清楚了,有了意外的收获。本来一件简单的事,只需要半个小时就能写完的内容,硬生生的磨了 1 整天。但从最后的收益来看,还是不亏的,只要花了时间,总是会有相应的回报,哪怕是踩坑过去的。

篇幅有限,这篇教程就先写到这里(估计再写长一点估计你的耐心又该吃紧了,我懂你),下期再继续更新吧。Stable diffusion 更新太快,可以讲的内容又太多,欢迎留言你最想讲的部分吧,我会选择呼声最高的来写教程。

另外,提醒下今天讲的内容一定要实操下,看完不等于学会。实操过程中,你可能会遇到各种坑,相信你会再回来问我的。但职场经验告诉我:一定要多去挑战复杂的事,遇到 bug 在我看来不是坏事,它能让自己“节外生枝”,有机会学到意想不到的知识。

相关资讯

SD WebUI 中也能用上实时绘画了!支持接入PS/Blender 等设计工具

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家介绍过 AI 绘画工具 Krea,它可以根据手绘的草图实时生成完整的画面,可以让我们更精准地控制图像效果,对电商、产品、游戏概念等设计领域来说非常有帮助。之前为大家推荐过一种在 ComfyUI 中免费实现 AI 实时绘画的方式,今天就再为大家推荐另一种在 Stable Diffusion WebUI 中实现实时绘画的方法。一、插件简介 SD WebUI 的实时绘画功能需要借助一个插件实现,这个插件是上周由 B 站 AI 绘画博主@朱尼酱推出,支持文生图、图
1/23/2024 6:55:37 AM
夏花生

AI绘画神器Stable Diffusion模型再升级!新版亮点全面盘点!

大家好,这里是和你们聊设计的花生~ 之前为大家对比了 6 款在线 AI 绘画软件在不同主题上的图像生成效果,最终是 Midjourney 的整体表现最好,而 Stability AI 官方模型 Stable Diffusion v2.1 则表现不尽如人意。最近 Stability AI 又推出了一个新模型 Stable Diffusion XL,参数是 SD v2.1 的 2.5 倍,那这个新模型的图像生成效果如何呢?今天就继续来测试一下。 往期回顾:Stable Diffusion XL 简介 DreamStud
4/18/2023 8:39:13 AM
夏花生

效率暴涨!5 款设计师必备的 Stable diffusion WebUI 模型

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前腾讯云设计中心分享了一篇用 Stable Diffusion WebUI 完成 B 端图标设计的教程,方法是搜寻多张 B 端图标素材,然后自己训练一个模型,这样只要输入关键词就能生成风格统一且质量极高的图标素材。腾讯云设计中心用自训练模型生成的 B 端图标 原文链接:这种方式比在 3D 软件中设计制作素材要快很多,可以用有效提升设计工作效率。但是自训练模型对普通设计师来说还是有一定门槛的,比如需要熟练掌握 Stable Diffusion WebUI 的相关操作
7/25/2023 6:09:09 AM
夏花生

Stable Diffusion WebUI 出图颜色发灰?用好VAE立马解决~

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前已经给大家推荐过不少 Stable Diffusion WebUI 的大模型,今天为大家介绍一下 WebUI 中“外挂VAE”的相关内容,可以解决我们在用大模型出图过程中出现的图像颜色发灰、发白的问题,一起来看看吧 ~ 上期回顾:1)VAE 简介 VAE 全称 Variational Auto Encoder (变分自编码器),是 stable diffusion 整个模型算法的组成部分之一,位于运作流程的末端,作用是让 stable diffusion 生成的
8/16/2023 2:09:56 AM
夏花生

神仙插件 LightFlow!一键复用SD WebUI工作流

大家好,这里是和你们一起探索 AI 绘画的花生~ 今天为大家推荐一个非常好用的 Stable Diffusion WebUI 插件 LightFlow,它可以将一张图像的生成参数和相关设置保存为文件,这样无论是复用图像生成信息还是分享给别人都非常方便,可以有效提升我们的出图效率。 :一、LightFlow 简介 Github 主页: 官方飞书文档: LightFlow 开源社区: 在 WebUI 中,当我们想复现某张图像的效果时,一般会去「图像浏览库」中找到对应的图像,然后将生成信息发送到文生图中进行修改。这
11/9/2023 7:35:49 AM
夏花生

新模型 Stable Diffusion 3 与 Stable Cascade 全面解析

大家好,我是花生~ 最近 Stability AI 又接连推出了 2 个新的模型:Stable Diffusion 3 和 Stable Cascade,在图像生成效率和质量上比半年前推出的 SDXL 1.0 有了明显提升,今天就为大家介绍一下 2 款新模型的特点和用法。 :一、Stable Diffusion 3 简介 官方介绍: 加入等候名单: 2 月 22 号,Stability AI 发布了新模型 Stable Diffusion 3(下面简称为 SD 3.0),这也是 Stable Diffusion
2/26/2024 8:13:29 AM
夏花生

Stable Diffusion XL 1.0 来了!零门槛免费使用,附详细教程!

期待已久的 SD XL 1.0 来了!国内也可以访问,不用部署本地,复制链接打开「即时灵感」,选择「传统模式 - 通用智能」即可 0 门槛体验超强的全新模型!免费不限次,还能下载高清原图~用超简单的描述词 控制生成任何你能想象到的风格 释放你的无尽创意吧! 网址:,为了生成一张复杂、精致、细腻的作品,你可能需要加上一大堆关键词,例如:最高画质、杰作、大师作品、4k、超高分辨率……林林总总一大段,加起来比你描述画面主体内容的部分还要多。 但现在,你只需要按照下面这个公式,输入简单的几个词就能生成同样精致的效果。 主体
8/2/2023 12:30:24 AM
土拨鼠

高效出图!5款超实用的 Stable Diffusion WebUI 进阶插件推荐

大家好,这里是和你们一起探索 AI 绘画的花生 ~ 上期为大家推荐了 5 款 Stable Diffusion WebUI 的基础插件, 今天继续推荐另外 5 款进阶插件,功能更强大丰富,包括锁定画面横纵比,精准控制物体色彩、人脸修复、图片高清放大等,一起来看看吧~ 了解 Stable Diffusion WebUI 的安装方法:1)Cut off/ 精准控制物体颜色 插件地址: 推荐安装方式:从 git 网址安装 在使用 AI 绘画时,如果提示词中设定的颜色过多,很容易出现不同物体之间颜色混杂的情况,Cut o
7/31/2023 7:08:39 AM
夏花生

5000字干货!盘点2023年Stable Diffusion GUI工具及其创作生态

正文开始之前,这里先用一句话概括性的介绍一下 Stable Diffusion:它是一种基于深度学习的文本到图像的生成模型。能够根据文本描述创造出丰富多样且具有高质量和细节的图像。它的生成模型是通过大规模图像及其描述的数据集训练而成,所以生成的图像在保持高创造性的同时,还具有较高的高分辨率。另外因其开源性质和强大的功能在 AI 绘画领域具有重要的地位。具体的原理这里就不展开讲了,我们只需要知道它是一种能够通过文本描述生成图像的 AI 绘画工具就够了。2023 年是 AI 相关技术井喷式爆发的一年,在 AI 绘画领域
2/7/2024 8:37:17 AM
五幺六

8大实战案例!AIGC在网易落地项目中的运用

AIGC 全称 AI Generated Content,是利用人工智能技术来生成内容,AIGC 绘画属于 AIGC 的分支。 近半年,以 Midjourney 和 Stable Diffusion 为代表的 AIGC 绘画迎来爆发式发展,掀起了一场生产力革命。Midjourney 和 Stable Diffusion 强大的创造力和无与伦比的高效性,使设计师通过它们提升生产力成为了必然。然而 Midjourney 和 Stable Diffusion 作为开放性工具,本身具有随机性与不可控性,很多设计师很难在工作
4/11/2023 8:12:11 AM
团队ASAK设计

超详细!外婆都能看懂的Stable Diffusion入门教程

一、前言 上次发的 Midjourney 教程《奶奶看了都会的 Midjourney 入门教程!!》文章受到了很多朋友们的认可和支持,大家讨论很热烈,其中有不少疑问就是 Midjourney 的图片怎么精准的控制,或者是不改变某个物体的情况下更换背景等等,实在是太多问题了。不过确实,Midjourney 生成的图片很难精准的控制,随机性很高,需要大量的跑图,不过没关系,在社群小伙伴们的强烈建议下,我在这篇文章中为大家分享 SD 的教程。 SD 效果图展示:动漫插画,就说这效果强不强吧...是不是迫不及待想试一试了呢
4/19/2023 8:00:20 AM
言川Artie

Prompt all in one!提示词中文转英文、自动调权重的 SD WebUI 插件

大家好,这里是和你们一起探索 AI 绘画的花生~ 今天为大家推荐一款非常实用的 Stable Diffusion WebUI 插件 Prompt-all-in-one,它能直接将 WebUI 中的中文提示词转换为英文,还能一键为关键词加权重、建立常用提示词库。安装后可以有效提升我们使用 WebUI 的效率,对英语不熟练的朋友非常友好。 Stable Diffusion WebUI 必备插件 ControlNet:一、功能介绍 插件网址: Prompt-all-in-one 插件功能主要包括自动中文转英文、一键转英
5/24/2023 7:25:52 AM
夏花生

出图效率倍增!47个高质量的 Stable Diffusion 常用模型推荐

“选用适当的模型,随随便便出个图,都要比打上一堆提示词的效果要好。” 事实如此,高质量的模型,能够成倍提升出图质量。目前 CivitAI(俗称 C 站, )是业内比较成熟的一个 Stable Diffusion 模型社区,上面汇集了上千个模型,以及上万张附带提示词的图像,这大大降低了 Stable Diffusion 的入门学习成本。 SD 相关插件:以下简要介绍 C 站的一些优秀模型,并在文末结合示例进行应用说明。 一、C 站模型分类 CivitAI 上的模型主要分为四类:Checkpoint、LoRA、Tex
5/24/2023 7:50:24 AM
Nile

电脑配置低如何使用Stable Diffusion?试试免费快速的云部署方案!

前言 众所周知,Stable Diffusion 本地部署要求是 windows 系统,而且对显卡也有很高的要求,那对于囊中羞涩的打工人来说,投入成本太高,但是又很想使用 Stable Diffusion,下边就来讲一种云端部署方式,完全免费,算力也是免费的。对于白嫖星人,怎么可能放过这么好的机会。铛铛铛~~他就是 colab 对电脑系统没有要求,无论是 Mac 电脑还是低配的 Windows 电脑,完全云端部署,这里先讲一下 colab 的部署方式。 更多SD干货:colab 部署方式 colab 它是免费的,免
5/31/2023 8:24:46 AM
Han小满

Clipdrop!Stable Diffusion 加持的全能型 AI 图像生成+处理神器

大家好,这里是和你们一起探索 AI 的花生~ 前几天 Midjourney 更新了 v5.2 版本,新增的功能引起大家的广泛的关注。而在 v5.2 更新的前一天,Stable Diffusion 母公司 Stability AI 也推出最新的 SDXL 0.9 模型,新模型在构图、细节和质量上比之前的 SDXL 模型有了显著的改进。SDXL 0.9 模型生成的图像,图像来源: 相关推荐:今天推荐给大家的 Clipdrop 就是可以让我们体验 SDXL 0.9 模型的网站,关注我的小伙伴应该对它不陌生。它原本是一家
6/30/2023 8:11:20 AM
夏花生

保姆级教程!如何用AI快速生成超好看的艺术二维码?

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家出了一期制作风格化二维码的教程,是用 Stable Diffusion WebUI 加上 controlnet 插件在黑白方块中融入插画。不过很快这种二维码就发展出更神奇的样式——黑白色块完全融入到画面中,第一眼根本看不出,但是依旧可以被手机扫描和识别。而达到这样的效果只需要一个新的 controlnet 模型 QR code monster,今天展示一下具体的制作过程。 了解 Stable Diffusion WebUI 和 Controlnet 插件:
7/18/2023 7:39:06 AM
夏花生

设计师狂喜! 用 Stable diffusion WebUI 快速制作中文立体字效

大家好,这里是和你们一起探索 AI 绘画的花生~ 最近在网上看到很多用 Stable Diffusion WebUI 配合 Controlnet 插件制作字效的案例,我也尝试了一下,效果非常不错,能用来快速生成各种高质量且极具创意的中文立体字效,今天就为大家分享相关的操作方法 ~ 上期回顾:一、准备字体图片素材 首先我们可以在 Ps 或者 Ai 中准备字体图片素材,图片需要是白底黑字,尺寸按自己的需求,设置在 512~768 px 之间,字体最好选择免费可商用的,位置也要预先安排好,方便后期排版。我准备的是一张 7
7/17/2023 7:23:14 AM
夏花生

出图质量升级! 5款优质 SDXL 模型推荐

大家好,这里是和你们一起探索 AI 绘画的花生~ 上周为大家推荐了 SDXL1.0 的相关资源,不知道大家体验过它的生成效果没有?SDXL 1.0 模型除了本身的图像生成性能比之前的 SD 模型有了极大的提升,更重要的是可以促进更多优质的风格大模型和 Lora 模型的出现。SDXL 1.0 从发布到现在不过半个月,已经有不少基于它训练的新模型出现了,今天就为大家推荐其中 5 款优质的大模型和 lora 模型~ 上期回顾:一、DreamShaper XL1.0 熟悉 SD WebUI 的小伙伴应该对 DreamSha
8/10/2023 7:49:30 AM
夏花生
  • 1