AI在线 AI在线

超详细!外婆都能看懂的Stable Diffusion入门教程

一、前言 上次发的 Midjourney 教程《奶奶看了都会的 Midjourney 入门教程!!》文章受到了很多朋友们的认可和支持,大家讨论很热烈,其中有不少疑问就是 Midjourney 的图片怎么精准的控制,或者是不改变某个物体的情况下更换背景等等,实在是太多问题了。不过确实,Midjourney 生成的图片很难精准的控制,随机性很高,需要大量的跑图,不过没关系,在社群小伙伴们的强烈建议下,我在这篇文章中为大家分享 SD 的教程。 SD 效果图展示:动漫插画,就说这效果强不强吧...是不是迫不及待想试一试了呢

超详细!外婆都能看懂的Stable Diffusion入门教程

超详细!外婆都能看懂的Stable Diffusion入门教程

一、前言

上次发的 Midjourney 教程《奶奶看了都会的 Midjourney 入门教程!!》文章受到了很多朋友们的认可和支持,大家讨论很热烈,其中有不少疑问就是 Midjourney 的图片怎么精准的控制,或者是不改变某个物体的情况下更换背景等等,实在是太多问题了。

不过确实,Midjourney 生成的图片很难精准的控制,随机性很高,需要大量的跑图,不过没关系,在社群小伙伴们的强烈建议下,我在这篇文章中为大家分享 SD 的教程。

SD 效果图展示:

超详细!外婆都能看懂的Stable Diffusion入门教程

动漫插画,就说这效果强不强吧...

超详细!外婆都能看懂的Stable Diffusion入门教程

是不是迫不及待想试一试了呢,那我们开始吧,手把手教学,外婆真的看了都会的教程,开始进入教学!!

二、Stable Diffusion 介绍

Stable Diffusion 是一款基于人工智能技术开发的绘画软件,它可以帮助艺术家和设计师快速创建高品质的数字艺术作品。该软件使用了一种称为 GAN(生成对抗网络)的深度学习模型,该模型可以学习并模仿艺术家的创作风格,从而生成类似的艺术作品。

Stable Diffusion 具有直观的用户界面,可以让用户轻松地调整绘画参数并实时预览结果。用户可以选择不同的画布、画笔和颜色,还可以通过调整图像的风格、纹理和颜色等参数来创建各种不同的艺术作品。

超详细!外婆都能看懂的Stable Diffusion入门教程

除此之外,Stable Diffusion 还提供了一些高级功能,例如批量处理、自动矫正和自动化调整等,可以帮助用户更加高效地完成大量的绘画任务。

超详细!外婆都能看懂的Stable Diffusion入门教程

总之,Stable Diffusion 是一款功能强大的 AI 绘画软件,它比现在市面上主流的 AI 绘画软件 Midjourney 更加的强大,可以说 SD 是所有 AI 绘画的鼻祖级存在,同样,更强大代表着它的上手难度及配置要求也更高。那么说到这里,我们就来看看这两款软件的一个对比吧

三、主流 AI 绘画软件的对比

超详细!外婆都能看懂的Stable Diffusion入门教程

四、Stable Diffusion 电脑配置要求

1. 配置要求:

需要使用 N 卡(NVIDIA 显卡),显卡的显存至少需要 4GB 以上显存才能在本地运行。最低配置需要 4GB 显存,基本配置 6GB 显存,推荐配置 12GB 显存或者以上。

Stable Diffusion Ai 绘画主要是运行显卡,算力越强,出图越快。显存越大,所设置图片的分辨率越高)

“推荐使用 RTX4090 显卡哦” -----来自一个 3080 显卡玩家

超详细!外婆都能看懂的Stable Diffusion入门教程

还有一点的就是硬盘空间要大,SD 出图主要依赖模型,网上下载的模型资源一般都很大(一个模型在 2G 以上)批量跑图也是很占内存的,这边建议 60GB 以上的硬盘空间。

2. 网络要求:大家都懂哈,咱也不说。

3. 操作系统:需要是 Win10 或 Win11。

满足以上条件基本上就可以用 SD 跑图啦。

五、Stable Diffusion 安装

SD 的安装我们就不要整的很复杂了,直接用大佬制作的一键安装/启动包就行,我们把时间用在刀刃上。

自己手动安装需要上 Github 下载文件,还要下载 Ptthon 等工具,一般第一次手动安装会出现各种奇怪的报错,总之很复杂,我之前自己安装过,真就花了一上午都还没安装好。所以我不建议也不教大家手动安装了。(如果你要硬上,可以在网上看看别的使用教程)

上黑科技!!!咱直接去使用@秋葉 aaaki 大佬的免费启动器和安装包。

超详细!外婆都能看懂的Stable Diffusion入门教程

我们下载这两个文件,下载链接在这篇文章顶部:

注意:下载的文件一定要放在空间比较大的盘里。

来看下具体操作:

1. 安装一下这个“启动器运行依赖”。

超详细!外婆都能看懂的Stable Diffusion入门教程

2. 然后把这两个文件复制一下,我们需要粘贴到“webui:文件夹中

超详细!外婆都能看懂的Stable Diffusion入门教程

3. 粘贴替换目标中的文件。粘贴的位置看我的文件夹路径。

超详细!外婆都能看懂的Stable Diffusion入门教程

4. 这里我重新走一遍打开流程,以防大家退出去了不知道从哪里进。我们打开下载的文件夹,然后进入到“novelai-webui”文件夹

超详细!外婆都能看懂的Stable Diffusion入门教程

5. 打开“novelai-webui-aki-v3”文件夹。

超详细!外婆都能看懂的Stable Diffusion入门教程

6. 然后下拉下拉...找到这个启动器,双击就完事了,这个就是我们刚刚粘贴替换的文件。

超详细!外婆都能看懂的Stable Diffusion入门教程

7. 然后就打开啦,一键启动就好了。

超详细!外婆都能看懂的Stable Diffusion入门教程

六、Stable Diffusion 基础操作

1. 大模型的切换

首先是这个界面左上角,在这里可以切换你所安装的模型。

超详细!外婆都能看懂的Stable Diffusion入门教程

这里我先推荐一下我常用的模型网站:C 站: https://civitai.com/

超详细!外婆都能看懂的Stable Diffusion入门教程

然后我们在 C 站上下载一些模型:

超详细!外婆都能看懂的Stable Diffusion入门教程

接下来就是安装了,很简单,把下载的模型放到这个路径文件夹中。然后刷新 web UI 界面(就是 SD 操作界面)

超详细!外婆都能看懂的Stable Diffusion入门教程

2. 模型的 VAE(Sd 的 VAE)

VAE 的全称是 Variational Auto-Encoder,翻译过来是变分自动编码器,本质上是一种训练模型,Stable Diffusion 里的 VAE 主要是模型作者将训练好的模型“解压”的解码工具。

这里可以切换 VAE。一般情况下我们就选择第一个自动就行了。

超详细!外婆都能看懂的Stable Diffusion入门教程

在 C 站下载模型,在下载页面会有文件显示,如图。

超详细!外婆都能看懂的Stable Diffusion入门教程

VAE 的安装路径看我这里,把下载的文件复制粘贴,然后把 web UI 界面刷新一下(就是 SD 操作界面)

超详细!外婆都能看懂的Stable Diffusion入门教程

言川总结:

总的来说就是你在 C 站上下载的模型有些内置就有 VAE 的属性(不需要下载 VAE 文件),有些没有内置下载的时候我们就把 VAE 文件下载。(VAE 文件一般大小在几百兆左右) VAE 的作用就是没有加载 VAE 的图片是灰灰的,加载之后就是会产生一个润色的效果,色彩更加丰富。

3. 功能选项

这里我挑选几个重要的功能讲解下。

文生图,这里与 Midjourney 不同的是,SD 有一个反向关键词(意思是不要图片出现什么),文生图的关键词格式与 Midjourney 基本一致,不知道的朋友可以去看我的往期文章:

超详细!外婆都能看懂的Stable Diffusion入门教程

下面这块参数就是设置图片的一些基本参数,分辨率、尺寸等等,具体参数见下文。

超详细!外婆都能看懂的Stable Diffusion入门教程

图生图,这个也很好理解,放参考图然后输入提示词,与其他 AI 绘画软件一致。

超详细!外婆都能看懂的Stable Diffusion入门教程

图片信息,意思是你用 SD 画的图,放在这里来,右边会显示这个图片的一些参数,包括关键词。

超详细!外婆都能看懂的Stable Diffusion入门教程

然后你可以选择右下角的一些功能,比如“文生图”。

超详细!外婆都能看懂的Stable Diffusion入门教程

模型合并,这个功能很厉害,后面我出一篇关于这个功能的教学,大致就是把多个模型混合起来。

超详细!外婆都能看懂的Stable Diffusion入门教程

训练,这个就是训练自己的模型,新手用的比较少,后面可用作工作流的部署。(这个才是我推荐的核心哦)

超详细!外婆都能看懂的Stable Diffusion入门教程

设置,然后就是设置,大家自己去研究下就好了。

超详细!外婆都能看懂的Stable Diffusion入门教程

扩展,这个就是跟插件扩展相关的了,后面再讲。

超详细!外婆都能看懂的Stable Diffusion入门教程

4. 提示词和反向提示词

言川提示:

提示词内输入的东西就是你想要画的东西,反向提示词内输入的就是你不想要画的东西。

提示框内只能输入英文,所有符号都要使用英文半角,词语之间使用半角逗号隔开。

超详细!外婆都能看懂的Stable Diffusion入门教程

一般来说越靠前的词汇权重就会越高,比如我这张图的提示词:

The personification of the Halloween holiday in the form of a cute girl with short hair and a villain's smile, (((cute girl)))cute hats, cute cheeks, unreal engine, highly detailed, artgerm digital illustration, woo tooth, studio ghibli, deviantart, sharp focus, artstation, by Alexei Vinogradov bakery, sweets, emerald eyes。

万圣节假期的拟人化形式是一个留着短发和恶棍笑容的可爱女孩,可爱的帽子,可爱的脸颊,虚幻的引擎,高度详细,艺术种子数字插图,woo tooth,吉卜力工作室,deviantart,锐利的焦点,artstation,由 Alexei Vinogradov 面包店,糖果,绿宝石般的眼睛。

第一句关键词词组:万圣节假期的拟人化形式是一个留着短发和恶棍笑容的可爱女孩。那生成的图片主体画面就会是万圣节短发可爱笑容女孩

超详细!外婆都能看懂的Stable Diffusion入门教程

这里可能有用过 Midjourney 的小伙伴们就有疑问了,(((cute girl)))是什么意思,为啥有这么多括号,我来为大家解答下,这个是权重调节,类似 Midjourney 的 ::

① 最直接的权重调节就是调整词语顺序,越靠前权重越大,越靠后权重越低,上面说过。

② 可以通过下面的语法来对关键词设置权重,一般权重设置在 0.5~2 之间,可以通过选中词汇,按 ctrl+↑↓来快速调节权重,每次调节为0.1,也可以直接输入。

超详细!外婆都能看懂的Stable Diffusion入门教程

③ 加英文输入的(),一个括号代表这组关键词的权重是 1.1,两个括号是 1.1*1.1 的权重,不要加太多了哈。可以结合第二点固定权重,比如(((cute girl:1.2))),那这个关键词的权重就很高了。

5. 功能按钮

我们来介绍下右边这几个功能,生成就不说了,输入关键词生成就跑图了。

超详细!外婆都能看懂的Stable Diffusion入门教程

第一按钮的意思是读取你上一张图的所有参数信息(包括关键词),比如你画一张图之后,关掉了软件,再次启动点击这个就会把参数复制进来。

超详细!外婆都能看懂的Stable Diffusion入门教程

第二个按钮就是删除了,清空关键词;这里可以和第一个按钮结合用哦

超详细!外婆都能看懂的Stable Diffusion入门教程

第三个按钮就是模型选择管理

超详细!外婆都能看懂的Stable Diffusion入门教程

这个按钮就是点击就会出现这些功能,你安装的模型和 Lora 都可以在这边调整。

超详细!外婆都能看懂的Stable Diffusion入门教程

言川小知识:这里可以把你生成的图片添加到模型的封面上,方便你后面看这个模型的效果,看我怎么做:

找到这个模型的名称,然后我这里是跑出来一张图片的,点击这个按钮(lora 一样)

超详细!外婆都能看懂的Stable Diffusion入门教程

最终效果:

超详细!外婆都能看懂的Stable Diffusion入门教程

后面两个就是一个提示词模板功能:

超详细!外婆都能看懂的Stable Diffusion入门教程

我们可以先点最后一个按钮,把现在的关键词创建一下,取个名字

超详细!外婆都能看懂的Stable Diffusion入门教程

然后在模板风格这里选中我们刚刚创建的模板(可以多选)

超详细!外婆都能看懂的Stable Diffusion入门教程

选中之后按一下第四个按钮,我们创建的关键词就被填入进去了,这块收工!

超详细!外婆都能看懂的Stable Diffusion入门教程

6. 采样步数

一般来说大部分时候采样部署只需要保持在 20~30 之间即可,更低的采样部署可能会导致图片没有计算完全,更高的采样步数的细节收益也并不高,只有非常微弱的证据表明高步数可以小概率修复肢体错误,所以只有想要出一张穷尽细节可能的图的时候才会使用更高的步数。(加大这个会导致出图变慢)

超详细!外婆都能看懂的Stable Diffusion入门教程

7. 采样方法

Stable diffusion webui 是 Stable diffusion 的 GUI 是将 stable diffusion 实现可视化的图像用户操作界面,它本身还集成了很多其它有用的扩展脚本。

SD 的采样方法有很多,大家有兴趣了解的可以去知乎看看@刘登宇的一篇文章《stable diffusion webui 如何工作以及采样方法的对比》。这里我们只介绍两个种常用的。

超详细!外婆都能看懂的Stable Diffusion入门教程

这里的采用方式有很多,但是我们常用的就那几个,我们可以去设置里面把不需要用到的关掉,不展示在这个界面中。然后点击右边的重启 UI 就好了。

超详细!外婆都能看懂的Stable Diffusion入门教程

8. 高清修复和图片尺寸参数

前面两个做个简单的介绍,面部修复对写实的风格有点效果,可平铺就不要用了,生成的图片很奇怪,可以自己试试。

超详细!外婆都能看懂的Stable Diffusion入门教程

我们说说高清修复,高清修复的意思是把基础生成的图片,按照你选择放大的倍率放大到指定分辨率之后再重新绘制图片,受到你重复幅度调节的数值影响。

超详细!外婆都能看懂的Stable Diffusion入门教程

宽度、高度就是图片的长宽比,很容易理解,生成批次和数量就是几批,一批几张图,配置好的可以直接拉满,增加效率哦。

提示词相关性:图像与你的提示的匹配程度。增加这个值将导致图像更接近你的提示(根据模型),但它也在一定程度上降低了图像质量。可以用更多的采样步骤来抵消。

默认未选中高清修复是这样的,当前图片的参数。

超详细!外婆都能看懂的Stable Diffusion入门教程

9. 随机种子(seed)

这个功能与 Midjourney 的 Seed 功能一样。

随机数的起点。保持这个值不变,可以多次生成相同(或几乎相同,如果启用了 xformers)的图像。没有什么种子天生就比其他的好,但如果你只是稍微改变你的输入参数,以前产生好结果的种子很可能仍然会产生好结果。

超详细!外婆都能看懂的Stable Diffusion入门教程

输入不同的种子,生成的图片不一样,seed 值一样,那生成的图片也是一样。

差异随机种子,需要勾选这个按钮:

超详细!外婆都能看懂的Stable Diffusion入门教程

这个功能是固定一个种子,然后调整差异强度来生成图片,因为是固定的 seed 值,所以生成的图风格都是类似的。

直接看图吧。

超详细!外婆都能看懂的Stable Diffusion入门教程

超详细!外婆都能看懂的Stable Diffusion入门教程

这边的几个功能都很简单,大家尝试下就能理解了,那基础操作我们就先讲到这里,大家赶紧玩起来吧!!

超详细!外婆都能看懂的Stable Diffusion入门教程

七、结语

这篇入门教学就先讲到这里,后续还有插件、部署模型等教程,大家先消化一下这篇文章的内容。

如果觉得对你有帮助,3 连(点赞、收藏、分享)一下吧,大家的支持才是我的动力,祝大家生活愉快

欢迎添加作者微信交流:

相关资讯

SD WebUI 中也能用上实时绘画了!支持接入PS/Blender 等设计工具

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家介绍过 AI 绘画工具 Krea,它可以根据手绘的草图实时生成完整的画面,可以让我们更精准地控制图像效果,对电商、产品、游戏概念等设计领域来说非常有帮助。之前为大家推荐过一种在 ComfyUI 中免费实现 AI 实时绘画的方式,今天就再为大家推荐另一种在 Stable Diffusion WebUI 中实现实时绘画的方法。一、插件简介 SD WebUI 的实时绘画功能需要借助一个插件实现,这个插件是上周由 B 站 AI 绘画博主@朱尼酱推出,支持文生图、图
1/23/2024 6:55:37 AM
夏花生

AI绘画神器Stable Diffusion模型再升级!新版亮点全面盘点!

大家好,这里是和你们聊设计的花生~ 之前为大家对比了 6 款在线 AI 绘画软件在不同主题上的图像生成效果,最终是 Midjourney 的整体表现最好,而 Stability AI 官方模型 Stable Diffusion v2.1 则表现不尽如人意。最近 Stability AI 又推出了一个新模型 Stable Diffusion XL,参数是 SD v2.1 的 2.5 倍,那这个新模型的图像生成效果如何呢?今天就继续来测试一下。 往期回顾:Stable Diffusion XL 简介 DreamStud
4/18/2023 8:39:13 AM
夏花生

效率暴涨!5 款设计师必备的 Stable diffusion WebUI 模型

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前腾讯云设计中心分享了一篇用 Stable Diffusion WebUI 完成 B 端图标设计的教程,方法是搜寻多张 B 端图标素材,然后自己训练一个模型,这样只要输入关键词就能生成风格统一且质量极高的图标素材。腾讯云设计中心用自训练模型生成的 B 端图标 原文链接:这种方式比在 3D 软件中设计制作素材要快很多,可以用有效提升设计工作效率。但是自训练模型对普通设计师来说还是有一定门槛的,比如需要熟练掌握 Stable Diffusion WebUI 的相关操作
7/25/2023 6:09:09 AM
夏花生

Stable Diffusion WebUI 出图颜色发灰?用好VAE立马解决~

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前已经给大家推荐过不少 Stable Diffusion WebUI 的大模型,今天为大家介绍一下 WebUI 中“外挂VAE”的相关内容,可以解决我们在用大模型出图过程中出现的图像颜色发灰、发白的问题,一起来看看吧 ~ 上期回顾:1)VAE 简介 VAE 全称 Variational Auto Encoder (变分自编码器),是 stable diffusion 整个模型算法的组成部分之一,位于运作流程的末端,作用是让 stable diffusion 生成的
8/16/2023 2:09:56 AM
夏花生

神仙插件 LightFlow!一键复用SD WebUI工作流

大家好,这里是和你们一起探索 AI 绘画的花生~ 今天为大家推荐一个非常好用的 Stable Diffusion WebUI 插件 LightFlow,它可以将一张图像的生成参数和相关设置保存为文件,这样无论是复用图像生成信息还是分享给别人都非常方便,可以有效提升我们的出图效率。 :一、LightFlow 简介 Github 主页: 官方飞书文档: LightFlow 开源社区: 在 WebUI 中,当我们想复现某张图像的效果时,一般会去「图像浏览库」中找到对应的图像,然后将生成信息发送到文生图中进行修改。这
11/9/2023 7:35:49 AM
夏花生

新模型 Stable Diffusion 3 与 Stable Cascade 全面解析

大家好,我是花生~ 最近 Stability AI 又接连推出了 2 个新的模型:Stable Diffusion 3 和 Stable Cascade,在图像生成效率和质量上比半年前推出的 SDXL 1.0 有了明显提升,今天就为大家介绍一下 2 款新模型的特点和用法。 :一、Stable Diffusion 3 简介 官方介绍: 加入等候名单: 2 月 22 号,Stability AI 发布了新模型 Stable Diffusion 3(下面简称为 SD 3.0),这也是 Stable Diffusion
2/26/2024 8:13:29 AM
夏花生

Stable Diffusion XL 1.0 来了!零门槛免费使用,附详细教程!

期待已久的 SD XL 1.0 来了!国内也可以访问,不用部署本地,复制链接打开「即时灵感」,选择「传统模式 - 通用智能」即可 0 门槛体验超强的全新模型!免费不限次,还能下载高清原图~用超简单的描述词 控制生成任何你能想象到的风格 释放你的无尽创意吧! 网址:,为了生成一张复杂、精致、细腻的作品,你可能需要加上一大堆关键词,例如:最高画质、杰作、大师作品、4k、超高分辨率……林林总总一大段,加起来比你描述画面主体内容的部分还要多。 但现在,你只需要按照下面这个公式,输入简单的几个词就能生成同样精致的效果。 主体
8/2/2023 12:30:24 AM
土拨鼠

高效出图!5款超实用的 Stable Diffusion WebUI 进阶插件推荐

大家好,这里是和你们一起探索 AI 绘画的花生 ~ 上期为大家推荐了 5 款 Stable Diffusion WebUI 的基础插件, 今天继续推荐另外 5 款进阶插件,功能更强大丰富,包括锁定画面横纵比,精准控制物体色彩、人脸修复、图片高清放大等,一起来看看吧~ 了解 Stable Diffusion WebUI 的安装方法:1)Cut off/ 精准控制物体颜色 插件地址: 推荐安装方式:从 git 网址安装 在使用 AI 绘画时,如果提示词中设定的颜色过多,很容易出现不同物体之间颜色混杂的情况,Cut o
7/31/2023 7:08:39 AM
夏花生

5000字干货!盘点2023年Stable Diffusion GUI工具及其创作生态

正文开始之前,这里先用一句话概括性的介绍一下 Stable Diffusion:它是一种基于深度学习的文本到图像的生成模型。能够根据文本描述创造出丰富多样且具有高质量和细节的图像。它的生成模型是通过大规模图像及其描述的数据集训练而成,所以生成的图像在保持高创造性的同时,还具有较高的高分辨率。另外因其开源性质和强大的功能在 AI 绘画领域具有重要的地位。具体的原理这里就不展开讲了,我们只需要知道它是一种能够通过文本描述生成图像的 AI 绘画工具就够了。2023 年是 AI 相关技术井喷式爆发的一年,在 AI 绘画领域
2/7/2024 8:37:17 AM
五幺六

8大实战案例!AIGC在网易落地项目中的运用

AIGC 全称 AI Generated Content,是利用人工智能技术来生成内容,AIGC 绘画属于 AIGC 的分支。 近半年,以 Midjourney 和 Stable Diffusion 为代表的 AIGC 绘画迎来爆发式发展,掀起了一场生产力革命。Midjourney 和 Stable Diffusion 强大的创造力和无与伦比的高效性,使设计师通过它们提升生产力成为了必然。然而 Midjourney 和 Stable Diffusion 作为开放性工具,本身具有随机性与不可控性,很多设计师很难在工作
4/11/2023 8:12:11 AM
团队ASAK设计

Stable diffusion入门教程!如何快速搞定安装和插件(附插件打包)

今天我会分享更简单的整合包安装,以及考虑到有些朋友的电脑硬件可能不给力,也分享一种最简单的云端安装方式。最后还会分享好用的绘画插件以及 AI 绘画资源包,值得收藏和分享。 更多Stable Diffusion 教程:一、一键安装 stable diffusion 整合包 对于使用 windows 系统的朋友来说,推荐使用 B 站大佬秋葉 aaaki 的整合包。 整合包安装特别简单,也没什么太多值得写的东西,大家自行去 B 站看这个教程:当视频在手机上无法加载,可前往PC查看。或者在文末和开头用我整合在一起的 AI
5/11/2023 12:06:29 AM
彩云Sky

Prompt all in one!提示词中文转英文、自动调权重的 SD WebUI 插件

大家好,这里是和你们一起探索 AI 绘画的花生~ 今天为大家推荐一款非常实用的 Stable Diffusion WebUI 插件 Prompt-all-in-one,它能直接将 WebUI 中的中文提示词转换为英文,还能一键为关键词加权重、建立常用提示词库。安装后可以有效提升我们使用 WebUI 的效率,对英语不熟练的朋友非常友好。 Stable Diffusion WebUI 必备插件 ControlNet:一、功能介绍 插件网址: Prompt-all-in-one 插件功能主要包括自动中文转英文、一键转英
5/24/2023 7:25:52 AM
夏花生

出图效率倍增!47个高质量的 Stable Diffusion 常用模型推荐

“选用适当的模型,随随便便出个图,都要比打上一堆提示词的效果要好。” 事实如此,高质量的模型,能够成倍提升出图质量。目前 CivitAI(俗称 C 站, )是业内比较成熟的一个 Stable Diffusion 模型社区,上面汇集了上千个模型,以及上万张附带提示词的图像,这大大降低了 Stable Diffusion 的入门学习成本。 SD 相关插件:以下简要介绍 C 站的一些优秀模型,并在文末结合示例进行应用说明。 一、C 站模型分类 CivitAI 上的模型主要分为四类:Checkpoint、LoRA、Tex
5/24/2023 7:50:24 AM
Nile

电脑配置低如何使用Stable Diffusion?试试免费快速的云部署方案!

前言 众所周知,Stable Diffusion 本地部署要求是 windows 系统,而且对显卡也有很高的要求,那对于囊中羞涩的打工人来说,投入成本太高,但是又很想使用 Stable Diffusion,下边就来讲一种云端部署方式,完全免费,算力也是免费的。对于白嫖星人,怎么可能放过这么好的机会。铛铛铛~~他就是 colab 对电脑系统没有要求,无论是 Mac 电脑还是低配的 Windows 电脑,完全云端部署,这里先讲一下 colab 的部署方式。 更多SD干货:colab 部署方式 colab 它是免费的,免
5/31/2023 8:24:46 AM
Han小满

Clipdrop!Stable Diffusion 加持的全能型 AI 图像生成+处理神器

大家好,这里是和你们一起探索 AI 的花生~ 前几天 Midjourney 更新了 v5.2 版本,新增的功能引起大家的广泛的关注。而在 v5.2 更新的前一天,Stable Diffusion 母公司 Stability AI 也推出最新的 SDXL 0.9 模型,新模型在构图、细节和质量上比之前的 SDXL 模型有了显著的改进。SDXL 0.9 模型生成的图像,图像来源: 相关推荐:今天推荐给大家的 Clipdrop 就是可以让我们体验 SDXL 0.9 模型的网站,关注我的小伙伴应该对它不陌生。它原本是一家
6/30/2023 8:11:20 AM
夏花生

保姆级教程!如何用AI快速生成超好看的艺术二维码?

大家好,这里是和你们一起探索 AI 绘画的花生~ 之前为大家出了一期制作风格化二维码的教程,是用 Stable Diffusion WebUI 加上 controlnet 插件在黑白方块中融入插画。不过很快这种二维码就发展出更神奇的样式——黑白色块完全融入到画面中,第一眼根本看不出,但是依旧可以被手机扫描和识别。而达到这样的效果只需要一个新的 controlnet 模型 QR code monster,今天展示一下具体的制作过程。 了解 Stable Diffusion WebUI 和 Controlnet 插件:
7/18/2023 7:39:06 AM
夏花生

设计师狂喜! 用 Stable diffusion WebUI 快速制作中文立体字效

大家好,这里是和你们一起探索 AI 绘画的花生~ 最近在网上看到很多用 Stable Diffusion WebUI 配合 Controlnet 插件制作字效的案例,我也尝试了一下,效果非常不错,能用来快速生成各种高质量且极具创意的中文立体字效,今天就为大家分享相关的操作方法 ~ 上期回顾:一、准备字体图片素材 首先我们可以在 Ps 或者 Ai 中准备字体图片素材,图片需要是白底黑字,尺寸按自己的需求,设置在 512~768 px 之间,字体最好选择免费可商用的,位置也要预先安排好,方便后期排版。我准备的是一张 7
7/17/2023 7:23:14 AM
夏花生

出图质量升级! 5款优质 SDXL 模型推荐

大家好,这里是和你们一起探索 AI 绘画的花生~ 上周为大家推荐了 SDXL1.0 的相关资源,不知道大家体验过它的生成效果没有?SDXL 1.0 模型除了本身的图像生成性能比之前的 SD 模型有了极大的提升,更重要的是可以促进更多优质的风格大模型和 Lora 模型的出现。SDXL 1.0 从发布到现在不过半个月,已经有不少基于它训练的新模型出现了,今天就为大家推荐其中 5 款优质的大模型和 lora 模型~ 上期回顾:一、DreamShaper XL1.0 熟悉 SD WebUI 的小伙伴应该对 DreamSha
8/10/2023 7:49:30 AM
夏花生
  • 1