首页 > 其他分享 >Stable Diffusion保姆级教程,看完连老奶奶都能上手!

Stable Diffusion保姆级教程,看完连老奶奶都能上手!

时间:2023-07-24 18:13:42浏览次数:50  
标签:Diffusion 显存 提示 模型 生成 Stable 完连

转自:https://mp.weixin.qq.com/s/p9p3Gjf0avQH0UKsHoR_Zw

都今天了

你还不会用Stable Diffusion?

 

上一期为大家介绍了Midjourney,今天为大家带来AI绘画界的另外一个扛把子Stable Diffusion,本期内容攻略妹保姆级喂饭教程,适合零基础、小白还有各种安装懒人,看完让你轻松上手!

 

 

本期目录:Stable Diffusion

1-配置要求

2-安装教程

3-关于版本及更新

4-启动打开

5-界面说明及绘制

 

1-配置要求

 

1、硬件要求:最好使用N卡(NVIDIA显卡),显卡的显存至少需要4GB以上显存才能在本地运行。

 

最低配置需要4GB显存,基本配置6GB显存,推荐配置12GB显存或者以上。(stable diffusion Ai 绘画主要是运行显卡,算力越强,出图越快。显存越大,所设置图片的分辨率越高)

 

2、网络要求:无特殊要求,也就是正常安装好就可以用。

 

3、系统要求:Win10或者Win11系统即可。

 

4、是否收费:开源免费,无需任何付费直接使用。

 

2-安装教程

 

Stable Diffusion最初安装较为繁琐,因此有众多UP主、博主对安装步骤进行封装制作为整合包(基于开源项目制作),一键解压即可完成部署进行使用,此处我们以B站UP主秋葉aaaki(UID12566101)制作的整合包为例进行教程。

 

Stable Diffusion一键整合包可在文末查看获取

 

1、首先鼠标双击打开启动器运行依赖。

 

 

2、点击安装。

 

 

3、等待安装。

 

 

4、点击关闭。

 

 

5、回到文件夹,解压图示压缩包

 

 

6、打开解压好的文件夹。

 

 

7、找到名为A启动器的应用程序,双击打开。

 

 

8、点击一键启动

 

 

9、弹出黑框运行(耐心等待,切勿关闭)

 

 

10、自动打开浏览器运行Stable Diffusion,可以开始使用。

 

 

3-关于版本及更新

 

Stable Diffusion webui/绘世等各类整合包的更新比较频繁,可以在对应的启动器的版本管理功能内进行更新,当然一般不更新也不影响正常使用:

 

 

同样也可以在功能模块下载更新或者添加各类模型:

 

 

4-启动打开

 

每次使用前都是先打开启动器,然后通过启动器一键启动。

 

 

启动后会弹出运行框,等待运行完毕会自动打开Stable Diffusion。

 

 

5-界面说明及绘制

 

 

在Stable Diffusion界面最左上角就是主模型的切换,初始只有一个基础通用的anything模型。

 

可能有些小伙伴对模型的概念不太清楚,Checkpoint模型是SD能够绘图的基础模型,因此被称为大模型、底模型或者主模型,Web UI上就叫它Stable Diffusion模型。

 

安装完SD软件后,必须搭配主模型才能使用

 

不同的主模型,其画风和擅长的领域会有侧重,例如卡通风、国风、水墨风、现实真人、赛博朋克、武侠、科幻风等。

 

 

相比于Midjourney,Stable Diffusion最大的优势就是开源。Midjourney靠开发人员开发的少数模型进行输出,SD则每时每刻都有人在世界各地训练自己的模型并免费公开共享给全世界的使用者。

 

因此,学会使用各类模型对于学习使用Stable Diffusion非常重要。

 

在启动器的模型管理中已经有大佬们上传的各类模型,可以直接下载添加到本地,但下载添加后要注意需重新启动。

 

 

在大家也可以到civitai.com/上查看下载各类模型,大部分模型都有作者分享的提示词、参数等,支持直接下载。

 

 

相与主模型挨着的就是VAE模型:

 

 

VAE,全名Variational autoenconder,中文叫变分自编码器。作用是:滤镜+微调。

 

有的大模型是会自带VAE的,比如Chilloutmix。如果再加VAE则可能画面效果不会更好,甚至适得其反。

 

 

CLIP 终止层数,值越大丢失的提示词越多,例如:提示词为“拿着火柴的女孩”,当Clip skip调大,出来的结果可能只有女孩。

 

 

文生图:根据文本提示生成图像
图生图:根据提供的图像作为范本、结合文本提示生成图像

后期处理:对生成的图进行后期加工,如放大、修复、去除背景、蒙版等
图片信息:显示图像基本信息,包含提示词和模型信息(除非信息被隐藏)
模型合并:把已有的模型按不同比例进行合并生成新模型
训练:根据提供的图片训练具有某种图像风格的模型

 

 

描述语分为正向/负向描述,它们也叫tag(标签)或prompt(提示词)

正面提示词:相比Midjourney需要写得更精准和细致,描述少就给AI更多自由发挥空间。

负面提示词:不想让SD生成的内容。

 

 

生成下面的5个小图标(从左到右依次分别是)

复原上次生成图片的提示词(自动记录)

清空当前所有提示词

打开模型选择界面

应用选择的风格模板到当前的提示词

存档当前的正反向提示词

 

 

采样方法

Stable Diffusion中提供了19种采样方法(Sampler)可以选择,看着名字就觉得比较头晕,当然他们背后都是有科学的解释,但是想要都搞明白原理并不是很切合实际。还不如直接看看实际效果来感受一下,然后选觉得最合适的来用就好了。

 

采样步数

简单理解就是生成的细节程度,快速粗略测试10-15就可以,如果对出的图比较满意就25,细化例如是有毛皮的动物或有纹理的主题,生成的图像缺少一些细节,就提高到40

 

 

长宽尺寸(分辨率):即生成图的长宽尺寸

总批次数:每次生成图像的组数。一次运行生成图像的数量为生成批次 * 每批数量。

单批数量:同时生成多少个图像。

 

 

点击生成后,输出的图片都会出现在图示下方,可选择保存位置、保存、打包下载,或者直接发送到图生图、重绘以及后期处理。

 

以上即为攻略妹的简单介绍及教程,目前SD并不存在通行可靠的使用规范,每个人的电脑配置、需求都不尽相同,再到模型、插件、提示词、参数调整等组合牵一发则动全身,需要大家耐心查看说明文档及各种学习,现在就快来下载使用吧~

 

资源获取

 

下方公众号对话框内

回复 SD

即可直接获取

 

高效设计,创意分享

致力于生产收藏级干货

标签:Diffusion,显存,提示,模型,生成,Stable,完连
From: https://www.cnblogs.com/shanhubei/p/17577947.html

相关文章

  • Stable Diffusion 下载+安装+使用教程【转载】
    转自:https://www.fujieace.com/ai/stable-diffusion-download-install-use.html 注意:本文讲解的用的是用“整合包”来本地部署安装及使用StableDiffusionWebUI,你不需要懂太多的计算机知识,而且用整合包对新手也是比较友好的,磁盘需要预留100G空间才能玩。 前言本文使用......
  • AI转换视频风格:Stable Diffusion+TemporalKit
    话不多说,开干!基本方法首先通过Temporal-Kit这个插件提取视频中的关键帧图片,然后使用StableDiffusionWebUI重绘关键帧图片,然后再使用Temporal-Kit处理转换后的关键帧图片,它会自动补充关键帧之间的图片,最后拼合这些图片,形成视频。这个方法建议尽量找些背景简单的、主体......
  • Stable Diffusion在各种显卡上的加速方式测试,最高可以提速211.2%
    StableDiffusion是一种基于扩散模型的图像生成技术,能够从文本生成高质量的图像,适用于CG,插图和高分辨率壁纸等领域。但是它计算过程复杂,使得它的生成速度较慢。所以研究人员就创造了各种提高其速度的方式,比如Xformers、Aitemplate、TensorRT和onflow。在本文中我们将对这些加速方......
  • 使用Stable Diffusion制作AI数字人视频的简明教程
    基本方法搞一张照片,搞一段语音,合成照片和语音,同时让照片中的人物动起来,特别是头、眼睛和嘴。语音合成语音合成的方法很多,也比较成熟了,大家可以选择自己方便的,直接录音也可以,只要能生成一个语音文件就行了。这里分享一个文字转语音的工具:https://ttsmaker.cn/,不用注册不用花钱......
  • 由浅入深:Stable-Diffusion 原理解析01 —— 基本概念的介绍
    由浅入深:Stable-Diffusion原理解析01——基本概念的介绍由于实习工作需要,最近一段时间的学习,自己也对Stable-Diffusion有了一些基础的理解,在学习和阅读论文的过程中,发现信息比较碎片化,于是决定产出一个SD原理的系列解析。本系列相比于本人之前的代码阅读系列没那么“硬核......
  • 在英特尔 CPU 上微调 Stable Diffusion 模型
    扩散模型能够根据文本提示生成逼真的图像,这种能力促进了生成式人工智能的普及。人们已经开始把这些模型用在包括数据合成及内容创建在内的多个应用领域。HuggingFaceHub包含超过5千个预训练的文生图模型。这些模型与Diffusers库结合使用,使得构建图像生成工作流或者对不......
  • Stable-Diffusion-webUI 代码阅读02 —— 按钮?按一下!
    Stable-Diffusion-webUI代码阅读02——按钮?按一下!由于实习工作需要,决定用几天时间阅读一遍stable-diffusion-webui的代码。本文参考知乎专栏,并且添加了一些自己的理解,感谢大佬!知乎专栏:自动做游戏:AI技术落地于游戏开发-知乎(zhihu.com)最近工作主要侧重于OneFlow框架应用......
  • zoj 1576 Marriage is Stable
    稳定婚姻问题对于稳定婚姻问题,必然存在一个解,所以此题不用考虑无解的情况。用Gale-Shapley+map可以直接搞定。注意:男女名字可能相同。Gale-Shapley算法详解:http://wenku.baidu.com/view/2b5a4c7a1711cc7931b7164a.html #include<iostream>#include<cstdio>#include<map>usin......
  • AIGC 之 Stable Diffusion 生成的带文字图片示例
    文字文字为HOTAIGC网址导航效果图片1图片2图片3图片4图片5图片6图片7图片8大家觉得效果如何,要是大家感兴趣下篇分享生成原理及参数。......
  • 简单了解下最近正火的SwissTable
    去年看到字节跳动给golang提了issue建议把map的底层实现改成SwissTable的时候,我就有想写这篇博客了,不过因为种种原因一直拖着。直到最近遇golang官方开始讨论为了是否要接受SwissTable作为map的默认实现,以及实际遇到了一个hashtable有关的问题,促使我重新思考了常见的hashtable算......