大家好,我是灵魂画师向阳
不得不承认,荷尔蒙才是第一生产力!什么?你不信!看看那些短视频平台,发个普通视频也就几百的播放量,随便发个美女都能轻松上千,还有比这更容易的吗?!
好了,随便感叹一下,我们现在进入正文。
这篇文章的主题和美女有关,不过并不是教大家生产美女视频,而是讲解如何使用 AI绘画工具 ComfyUI 的图生图局部重绘,其中将会以美女图片为例,通过更改大长腿上的黑丝、白丝,来展示局部重绘的强大威力。
先看看效果:
ComfyUI是什么?
在AI绘画领域,Stable Diffusion 因其开源特性而受到广泛的关注和支持,背后聚拢了一大批的应用开发者和艺术创作者,是AI绘画领域当之无愧的王者。
目前使用 Stable Diffusion 进行创作的工具主要有两个:Stable Diffusion WebUI 和 ComfyUI。
Stable Diffusion WebUI 开箱即用,基本功能齐全,社区也有很多的插件支持,入门比较简单,适合新手,但是可定制性稍微差点,很多作品不容易传播复现,使用API进行操作也有一定的难度。
ComfyUI 虽然出来的晚一点,但是它的可定制性很强,可以让创作者搞出各种新奇的玩意,通过工作流的方式,也可以实现更高的自动化水平,创作方法更容易传播复现,发展势头特别迅猛。从解放生产力以及工业化批量生产的角度看,ComfyUI 具备更广阔的应用前景。
但是 ComfyUI 的上手门槛有点高,对 Stable Diffusion 以及各种扩展能力的原理需要有一定的理解,动手能力要求也比较高。为了让大家更好的使用 ComfyUI ,今天我将介绍一些 ComfyUI 的概念和使用方法,让大家更快的掌握 ComfyUI 的使用技巧,创作出自己独特的艺术作品。
如何安装 ComfyUI?
我在之前的文章中已经详细的介绍过安装步骤,需要的同学请点此前往:一键进阶ComfyUI!懂AI的设计师现在都在用的节点式Stable Diffusion!内附安装包
ComfyUI局部重绘
基本重绘方法
我们先来看一个最简单的局部重绘示例,在这个示例中,我将在姑娘左边的地板上增加了一条黄色的小狗。
工作流我已经打包好了,需要的朋友可以看下方扫描免费获取哦。
加载重绘图片
从左向右看,最左边是加载需要做局部重绘的图片,并在图片中添加一个遮罩,遮罩的区域内将绘制一条小狗。这个部分包括4个节点,我分别介绍下:
加载图像:从文件夹选择一张图片,或者上传一张图片。然后我们在图片上点击右键,在弹出的菜单中继续点击“在遮罩编辑器中打开”,在打开的页面中我们就可以绘制遮罩了,完成绘制点击右下角的“Save to node”就可以了。
VAE编码:图片要进行重绘,还是要走扩散模型的基本流程,这里需要使用VAE模型将图片编码到潜空间。
遮罩羽化:让遮罩部分生成的内容和图片的其它部分融合的更好一些,不那么突兀。
遮罩平滑:我们手动操作可能比较毛糙,让遮罩的编码更加平滑。
设置Laten滤波遮罩:给潜空间中的遮罩区域增加噪音,这样可以让生成的内容和图片融合的更好些。
设置SD参数
然后我们还要设置Stable Diffusion的基本参数,包括:
加载SD基础模型:可以使用所有的SD基础模型,SD1.5、SDXL都可以。
填写提示词和反向提示词:描述要重绘的内容,不想出现的内容等。
设置采样器:常用的K采样器即可,所有参数都是用默认设置即可。
最终保存图像:可以设置一个文件名前缀。
然后就可以“添加提示词队列”去生成图片了。
使用ControlNet精细重绘
终于到了更换丝袜的环节了。因为我们只是想要更换丝袜的颜色,腿形啥的都不想有大的改变,这就需要更为精细的控制,可以通过引入 ControlNet 达到这个目的。
Canny控制网
我们先使用 Canny 控制网来进行处理,Canny 是一个线稿模型,它可以控制图片按照线稿的约束进行生成,效果不错。工作流的其它部分基本不用改变,我们只需要增加 ControlNet 的部分,并把这些节点添加到工作流中。这里主要介绍下ControlNet的部分(完整的工作流请在文末获取),看下面这张图:
先看左边三个节点:
-
Canny细致线预处理器器:从要重绘的图片中提取线稿图,这里边有个分辨率的参数,需要设置为图片最小边的像素值,所以引入了“数学表达式”和“图像信息”两个节点。
-
图像信息:提取要重绘图片的宽度和高度。
-
数学表达式:获取图片宽度和高度的最小值。
再看右边两个节点:
-
DiffControlNet加载器:用来加载ControlNet模型,注意模型要和预处理器匹配。
-
ControlNet应用:用来定义一个ControlNet节点,其中的强度、开始时间和结束时间,是用来控制 ControlNet 参数图片生成的影响力的,开始时间和结束时间的取值范围是0-1,代表在采样过程中的介入时机。
另外需要注意的是遮罩的绘制和提示词的编写:
先看遮罩的绘制,因为只是更改丝袜的颜色,我们这里需要只把腿覆盖上,其它部分尽量不要覆盖,以免出图效果不好。
再看提示词,我们需要在提示词中描述丝袜的颜色、质地等特征。
最后还是点击“添加提示词队列”去生成图片。
Tile控制网
另外我也做了一个Tile控制网的工作流,Tile的主要能力是细节完善,修改颜色比较困难,但是也能把丝袜处理的更好看一些,所以还是简单介绍下。
这里也需要一个预处理器,Tile平铺预处理器,它主要是把图片变模糊。这里的分辨率我没有自动计算,直接设置为了图片最小边的长度,你生成图片的时候请注意修改。
其它ControlNet模型的选择就没什么好说的了,工作流下载请看文末扫描免费获取哦。
以上就是本文的主要内容。最后再贴几张本次生成的照片,供大家欣赏。
用好 ComfyUI:
-
首先需要对 Stable Diffusion 的基本概念有清晰的理解,熟悉 ComfyUI 的基本使用方式;
-
然后需要在实践过程中不断尝试、不断加深理解,逐步掌握各类节点的能力和使用方法,提升综合运用各类节点进行创作的能力。
感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
一、AIGC所有方向的学习路线
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
三、最新AIGC学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。