首页 > 其他分享 >万字长文带你从零开始:构建你的首个ComfyUI工作流,AI绘画进阶必看教程,ComfyUI零基础入门到精通教程!

万字长文带你从零开始:构建你的首个ComfyUI工作流,AI绘画进阶必看教程,ComfyUI零基础入门到精通教程!

时间:2024-11-04 10:45:53浏览次数:5  
标签:教程 启动器 自定义 必看 AI ComfyUI 安装 节点

我今天又来给大家分享AI教程了,本期教程主角就是ComfyUI入门教程

从2023年下半年开始,AI绘画界出现了一颗新星——ComfyUI。这个工具以其快速、流畅的图像生成能力,以及对低配置设备的友好性,迅速在创作者中流行起来。ComfyUI的一个亮点是能够一键加载大量工作流,让用户轻松实现人像生成、背景替换和图片动画化等功能。

如果你像许多人一样,是通过Web UI开始你的stable diffusion之旅,那么你可能会对ComfyUI的崛起感到好奇。这个工具的受欢迎程度正在迅速上升,已经成为许多AI绘画爱好者的首选。在本篇文章中,我将带你了解ComfyUI,这个正在改变AI绘画游戏规则的应用。

ComfyUI是一个为Stable Diffusion专门设计的基于节点的图形用户界面(GUI)。它使用户能够通过链接不同的块(称为节点)来构建复杂的图像生成工作流程。这些节点可以包括各种任务,如加载检查点模型、输入提示、指定采样器等。

它实际上就是一个比较专业的Stable Diffusion运行界面,只不过是节点式的。这种节点式界面其实广泛的存在于各种专业的生产力工具中,例如 Blender、虚幻引擎、达芬奇等。


感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

2.1 WebUI与ComfyUI对比

ComfyUI提供了极高的自由度和灵活性,支持高度的定制化和工作流复用,同时对系统配置的要求较低,并且能够加快原始图像的生成速度。然而,由于它拥有众多的插件节点,以及较为复杂的操作流程,学习起来相对困难。

另一方面,WebUI特点是拥有固定的操作界面,使得其易于学习和快速上手。经过一年多的发展,它已经建立了一个成熟且稳定的开源生态系统。但相比ComfyUI,在性能方面可能稍逊一筹,且在工作流程复制方面存在局限性,用户需在每次操作时手动进行设置。

因此,建议初学者从WebUI开始入手,熟悉后再考虑转向ComfyUI,以充分利用AI工作流程,实现效率的最大化。

2.2 使用人群/场景

那么ComfyUI适合那些人群使用以及它的使用场景是什么呢,下面我列出了6类:

图像生成与编辑:数字艺术家、设计师和摄影师可以利用 ComfyUI 进行复杂图像生成和深度编辑。

  • AI 研究与实验:AI 研究人员和开发者可用 ComfyUI 构建和测试图像生成模型和算法。

  • 个性化内容创作:视频制作者、博客作者和社交媒体影响者可以快速生成个性化的视觉内容。

  • 教育与培训:教育工作者可以利用 ComfyUI 帮助学生理解图像处理和生成的基本概念。

  • 游戏开发与动画制作:游戏和动画制作人员可以使用 ComfyUI 生成游戏素材和角色设计。

  • 产品设计与模拟:产品设计师可以利用 ComfyUI 快速生成设计原型和视觉效果图。

在这里插入图片描述

目前的有两种常用的安装方法,分别是使用官方提供的整合包以及使用秋叶的一键启动器。这两种安装方式都很简单,安装方法也差不多一样。

如果你担心使用官方整合包会出现各种奇怪的报错,那么可以安装一键启动器,他能规避一些报错。

秋叶的启动器会内置一些插件和模型,拥有专属的图形化界面,后续更新版本以及安装插件比较方便,下面我会以秋叶整合包的安装方法演示一遍,大家可以按照操作来完成comfyUI的本地部署。

3.1 一键启动器安装

秋叶的一键启动器也比较无脑,直接下载安装包即可(安装包下载请看上方或文末扫描免费获取),它的优势之处就是能避免官方整合包出现的代码报错,以及他下载节点插件都会更方便一点。

打开ComfyUI的根目录,找到启动器文件,直接双击启动即可:

在这里插入图片描述

ComfyUI启动器的UI界面与WebUI启动器界面一致,功能不同而已,所以插件安装、版本升级就不说了,直接点击【一键启动】即可。

在这里插入图片描述

注:官方整合包和一键启动器操作一样。

4.1 独立模型安装

首先我们先来说下,在ComfyUI中如何安装大模型、Lora等一系列模型。(以官方整合包为例)

进入到ComfyUI根目录,找到这个【Models】文件夹,双击进去。

进来之后你就会看到以模型名称命名的文件夹,如Checkpoints(大模型)、Loras、controlnet等,我们只需要进入对应的文件夹,把正确的模型安装进去即可。

4.2 共享模型设置

除了ComfyUI独立安装模型以外,它还支持与webUI共享同个模型文件夹,好处是不用重新安装之前安装过的模型,同时也是避免占用硬盘空间,这步操作大家都应该学会。

同样,我们还是打开ComfyUI根目录,找到这个【extra_model_paths.yaml.example】文件夹:

用记事本打开该文件,然后在记事本中,把【base_path】后面的路径换成WebUI的根目录:

正确的文件路径是我这样的,然后我们只需要按【ctrl+s】保存该文件即可。

还没有结束,我们还需要把该文件的名称【extra_model_paths.yaml.example】改为【extra_model_paths.yaml】

也就是删除.example后缀。

然后我们启动ComfyUI,到模型节点检查下模型是否同步了,如果你是按照我的操作流程做下来的,那么你应该跟我一样模型同步成功了,

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

节点是ComfyUI工作流中的核心组件(与WebUI中的插件类似),它们代表了不同的操作和功能。节点可以是采样器、模型、提示词等,通过节点之间的连接,我们可以构建出复杂的工作流程。节点的配置和连接方式直接影响最终的输出结果。

而节点有分为两种,分别是官方原生节点以及用户开发的自定义节点,这些节点共同构成了ComfyUI的节点工作流,使得用户可以设计和执行各种基于Stable Diffusion的复杂流程,接下来我为大家详细介绍下这两种节点。

5.1 原生节点

官方原生节点是ComfyUI开发团队提供的一系列基础节点,它们为用户提供了广泛的功能和工具,以支持图像生成和其他相关任务。比如采样器节点、模型节点、提示词节点、VAE节点等

简单来说原生节点是不需要我们进行二次安装的,ComfyUI安装成功后直接可以使用。

5.2 自定义节点

ComfyUI的强大之处在于其可扩展性,用户可以根据自己的需求开发自定义节点。目前来自全世界各地的社区成员已经贡献了600多个自定义节点(截至本篇教程的已知数据),极大地丰富了工作流的设计和优化选择。

并且官方原生节点和用户开发的自定义节点可以结合使用,创建高度定制化的工作流。用户可以利用官方节点构建基础流程,然后通过自定义节点添加特定的功能或优化现有流程。

注:自定义节点与WebUI中的插件类似,与原生节点不同的是需要我们进行手动安装才能使用。下面我就给大家介绍下如何安装自定义节点。

自定义节点的安装方式可以归纳为三种,分别是官方安装方式、启动器安装方式和节点管理器(Manager)安装。我就直接总结下:

官方版安装:安装步骤多,比较麻烦,不推荐使用;

启动器安装:简单快捷步骤少,但需要关掉运行后台才可安装,可作为备选安装方案;

节点管理器(Manager)安装:不需要重重启运行后台,安装即用,非常方便。

那么下面我会为大家介绍一下这三种安装方式,这些方法都是相辅相成的,可以不用但是需要了解。

注:不管是哪种安装方法,自定义节点文件都是放在ComfyUI的【custom_nodes】目录中。

本地安装

我们进入到节点的代码仓中,去到节点的代码仓中下载压缩包,解压后放到【custom_nodes】目录中即可,不过通过这种方式,我们无法通过在线更新的方式更新节点,慎用。

以上就是官方版的安装方式,如果你是官方原生整合包的玩家,可以通过上面两种方式进行安装。但是如果你用的是秋叶启动器,那么就不需要这么麻烦了。

6.2 启动器安装

启动器安装很简单无脑,【打开启动器——点击版本管理——点击安装新扩展——搜索节点名称——安装】简单几步就可以完成。

安装完成后进入到【扩展】中就可以看到安装的节点,后续更新节点点击一键更新,非常的方便。

如果你是启动器玩家,那么恭喜你,该节点的安装方式就介绍完了,非常简单是不是,如果你不想把时间耗在无聊且痛苦的安装上,启动器运行ComfyUI是你的不二选择。

6.3 节点管理器

接下来,就是咖位最重的这位了,我也把它放在最后介绍,原因有两点:

1、它就是一个自定义节点,需要先使用前面任何一种安装节点的方式进行安装。

2、当你安装好这个节点后,前面两种安装节点的方式都可以淘汰。

那么这个节点管理器就是【ComfyUI Manager】

ComfyUI Manager介绍:ComfyUI Manager是一个自定义节点工具,它提供了一系列管理功能,包括安装、移除、禁用和启用ComfyUI的各种自定义节点。

你可以理解为它是webUI中的【扩展】,安装【ComfyUI Manager】后,你就可以像在webUI扩展中安装和管理插件一样,非常便捷的安装各种自定义插件,无论你是使用“官方整合包”还是“启动器”,这个是必备的节点。

注:安装启动器的玩家,启动器已经安装了很多常用插件(包括Manager),代表着你不需要重复安装Manager。

那这个节点怎么安装呢?想一下…

是不是前面两种安装方式演示的案例,都是这个【ComfyUI Manager】自定义节点,所以你就可以用到前两种安装方式的任意一种来安装【ComfyUI Manager】,这里就不重复讲解了,往前翻一下安装该插件即可。

那么安装完成之后,运行ComfyUI,在工作区右下角就可以找到【Manager】位置。


感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

7.1 AIGODLIKE介绍

AIGODLIKE-ComfyUI-Translation 是一个为 ComfyUI 设计的多语言翻译插件,旨在将 ComfyUI 的界面和功能本地化到不同的语言环境中。这个插件实现了对常驻菜单栏、搜索栏、右键上下文菜单、节点等的翻译。

节点官方地址:https://github.com/AIGODLIKE/AIGODLIKE-ComfyUI-Translation

目前支持的语言:

简体中文 (zh-CN)、繁体中文 (zh-TW)、英语 (English)、日语 (Japanese)、韩语 (Korean)

7.2 汉化节点安装

打开manager界面,你就可以里面安装其他节点了,看着有点头疼是不是(全是英文),没关系,接下来我就教你如何使用【manager】安装汉化插件。

点击【Install Custom Nodes】按钮,这个按钮翻译过来就是【安装自定义节点】:

在右上角的搜索框中输入【AIGODLIKE】,点击【search】搜索。

下方会出现三个自定义节点,第一个【AIGODLIKE-COMFYUI-TRANSLATION】就是我们需要安装的汉化节点,点击最右边的【Install】安装即可(需网络)。

然后点击【Restart】重启ComfyUI即可,如果你出现安装失败的问题,那就需要检查你的网络了(小声BB)。

安装完【AIGODLIKE】节点后,第一步点击右下角的设置图标,第二步在弹出的设置界面找到【langualge】功能,第三步切换中文界面就可以了,不需要重启即可完成界面汉化。

7.3 语言快速切换

该插件还支持快速切换,比如我们目前使用的是简体中文,点击切换语言【Swich Locale】即可一键切换英文,再次点击就可切换中文。注:如果你上次切换的是繁体/韩语,一键切换就会从繁体/韩语到英文直接切换。

经过对ComfyUI的详细介绍,以及逐步完成节点汉化安装,现在一切准备就绪。

恭喜你,正式踏入ComfyUI的创作世界!

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

下面我们就开始ComfyUI工作流的搭建,我会教大家一步步完成文生图的工作流。

在此之前,我们需要先了解一下在ComfyUI界面中,如何使用快捷键来帮助我们便捷操作。

8.1 快捷键介绍

这里我们参考官方给到的快捷键,官方地址:https://github.com/comfyanonymous/ComfyUI?tab=readme-ov-file

以上快捷键均为官方提供的20个快捷键(win),对于 macOS 用户,Ctrl 键可以替换为 Cmd 键。实际操作中会用到哪些快捷键我会在接下来的操作中给大家指明。

8.2 6步文生图工作流搭建

接下来,我以实操的方式带你一步步搭建文生图的工作流,你不需要在刚入门的时候做笔记,去记那些枯燥乏味的功能,因为我认为只有实际的操作一遍,才能掌握那些功能,明白各个功能的作用,这也是我一贯的教学思维。

首先,如果你首次启动ComfyUI界面,那么你的界面中会有一套默认的文生图工作流(当然你之前使用过ComfyUI,那么它会默认加载你上次关闭的工作流)。

我们接下来要搭建的工作流就是这套默认的文生图,其目的就是让大家亲手搭建一下工作流,大家可以提前看看。

然后我们点击左下角功能区的【清除】,删掉界面中的工作流节点。

第一步,添加【K采样器】

在工作区的空白处,单机鼠标右键调出节点功能区,选择采样——K采样器,那么我们的工作区中就会添加了一个采样器节点。

先来介绍下【K采样器】中的几个参数设置:

第一个随机种,对应webUI中的seed值,每生成一张图就会显示该图的数值,默认为0;

第二个运行后操作,里面有四个选项,固定、增加、减少、随机;

这两个参数是搭配使用的,固定代表着固定该张图片的数值,增加/减少为+1或-1数值,随机就代表着随机数值,熟悉webUI的同学应该很容易明白,一般我们就使用固定或随机即可。

步数指的就是webUI中的迭代步数,一般设置为30-40左右;

CGF对应webUI中的提示词相关性。参数越大,图片效果越接近提示词。参数越小,AI发挥空间越大,图片效果与提示词差异越大。一般设置在10左右就好,默认为8。

采样器是与调度器结合一起使用的,对应着webUI中的采样方法,比如我们常用的dpm++_2m Karras

采样器一般使用优化后/最新的采样器:euler_ancestral (简称euler a)、dpmpp_2m 系列、dpmpp_3m 系列

调度器一般使用normal或karras,具体它们的原理大家有兴趣可以GPT一下。

降噪这个参数基本上我们不用动,它是与迭代步数对应,默认1不动就行。

第二步,添加【加载大模型】

如图所示,直接拖动模型连接点即可调出功能区,并添加【Checkpoint加载器】即可,后面添加节点的方式可以复用此操作,不重复演示该操作。

第三步,添加【正反向提示词】

用上述的方式添加正向提示词输入节点,如图所示:

反向提示词输入区也可用同样的方式添加,即拖动【负面条件】的连接点。

不过这里我们演示复制粘贴的方式,选中【CLIP文本编码器】节点,Ctrl+C复制,然后Ctrl+V粘贴,再把两个颜色的节点连接起来即可:

或者是选中【CLIP文本编码器】节点,按住键盘的alt+鼠标左键拖动也可以复制一份节点,大家可自行尝试。

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

第四步,添加【图片尺寸/批次】

拖动【Latent】连接点,选择【空Latent】即可添加【图片尺寸/批次】节点,该节点有宽度、高度和批次大小参数调节,这几个参数不解释了,会webUI一看即懂。

第五步,添加【VAE解码器】

拖动【Latent】连接点,选择【VAE编码】即可添加VAE。

第六步,添加【图片生成区】

拖动【图像】连接点,选择【预览图像】即可成功添加图像生成区。

到这里,整个文生图所需的节点都已经成功添加了,此时我们可以点击【添加提示词队列】进行生图测试,在此之前我们在正向提示词中输入一个提示词(如 a girl)。

注:【添加提示词队列】就是生成图片的按钮。

如果此时你跟我一样,点击生成,那么你会出现这样的报错,看图中的红色框中的提示以及节点上的红色标注。出现这样的原因是因为我们的这些标红的节点没有连接上。

那么接下来我们就需要修正这些错误节点,把节点都连接上。注意连接点上的颜色,如果是黄色的连接点就需要与对应的黄色连接点相连(名称对应),如图所示:

那么我们再次点击生成,恭喜你,这套文生图工作流就已经成功搭建完毕了。

下面再给大家补充几点:

1、我们上面添加的图片生成区选择的是预览图像,预览图象顾名思义,就是生成的图片是预览状态,需要我们手动保存。在图片上单击鼠标右键,选择保存图像即可下载该图像。

那么有没有像webui中生图那样自动保存到本地文件夹呢,是有的。

把预览图像删除,再次拖动【Latent】,选择【保存图像】节点即可。

那么我们再次生成的图片,就会自动给我保存到本地。我们可以进入到ComfyUI的根目录文件夹中的【output】查看,如图所示:

2、目前我们添加的VAE节点是直接连接到大模型节点上的,有些大模型是自动VAE而有些没有,能不能与webUI中一样自己手动添加VAE呢,也是可以的。

删掉连接大模型的连接线,在VAE连接点处拖动,选择【VAE加载器】,既可看到我们熟悉的840000 VAE。

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除

标签:教程,启动器,自定义,必看,AI,ComfyUI,安装,节点
From: https://blog.csdn.net/A2421417624/article/details/143479026

相关文章

  • ComfyUI插画头像工作流:将日常照片转化为艺术佳作
    在数字创新的浪潮中,ComfyUI的插画头像生成工作流为艺术爱好者和设计专业人士提供了一个前所未有的创作工具。这个工具结合了尖端的人工智能技术,让用户能够将普通的照片转换成具有艺术风格的插画。无论是单人像、情侣照还是全家福,ComfyUI都能迅速呈现出具有个性化风格的作品......
  • 保姆级教程 | 小某书爆款新赛道,水晶水果新玩法,AI带你轻松涨粉!
    这两天刷小红书,发现了一个新奇的赛道,感觉蛮不错的,满足了小红书里面大部女生的少女心。这种图片制作简单,涨粉也不难。置顶的这两张苹果和水晶橘子,很吸引观众眼球!苹果透亮透亮的,橘子看着非常可口,十分治愈。这份完整版的AI绘画全套学习资料已经上传CSDN,朋友们如果需要可......
  • git入门教程
    git入门教程1:git简介git入门教程2:git发展历史git入门教程3:安装配置git入门教程4:git工作流程git入门教程5:git仓库操作git入门教程6:git基本版本控制git入门教程7:git与远程仓库的交互git入门教程8:git高级分支管理git入门教程9:配置Git钩子git入门教程10:git性能优化git入门教程11......
  • pve+alpine+docker安装教程
    pve的容器就应该用alpine,用debian从systemd炸到dbus,哎哎教程首先我们按需创建一个alpine容器,取消勾选“无特权容器”这个选项。然后#runinpveshellnano/etc/pve/lxc/xxx.conf添加下面几行#为了让docker正常运行lxc.cgroup2.devices.allow:alxc.cap.drop:启动并......
  • 《python爬虫入门教程03--重剑无峰168》
    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档python爬虫入门教程03前言一、urllib.request.urlretrieve()函数的介绍?二、使用示例总结前言本此程序主要演示python爬虫来简单爬取网页、图片、视频的示例。但是这是一个简单版的,一些未经过处理的网......
  • ComfyUI | FLUX-ControlNet,FLUX-LoRA和FLUX-IPAdapter等工作流【附下载】
    本文重点提要本文将介绍Flux模型及安装指引,文末附所有工作流下载方式ComfyUIFLUX工作流分享:包含FLUXTxt2Img、FLUXImg2Img、FLUXLoRA、FLUXControlNet、FLUXInpainting、FLUXNF4和Upscale、FLUXIPAdapter、FluxLoRA训练器、FluxLatentUpscalerFLUX简介1.1前......
  • Springboot使用 jenkins-client 调用Jenkins REST API教程和构建 build时 报错 403
    前言:最近在工作中,遇到一个需求,使用java调用Jenkins进行全自动测试的需求于是在网上查找大量资料,可以使用jenkins-client这个工具可以调用JenkinsRESTAPI在执行GET请求获取Jenkins信息的时候没有任何问题,但是执行POST请求时,比如build构建job,create创建jo......
  • json-server详细模拟GET、POST、DELETE等接口数据教程
    引言在前端开发过程中,我们经常需要在后端API尚未就绪的情况下模拟接口数据。json-server是一个强大而灵活的工具,可以帮助我们快速创建一个模拟的RESTfulAPI。本文将详细介绍如何使用json-server来模拟GET、POST、PUT、PATCH、DELETE等常用的HTTP方法,以及如何处理复杂的数......
  • 基于PyTorch的大语言模型微调指南:Torchtune完整教程与代码示例
    近年来,大型语言模型(LargeLanguageModels,LLMs)在自然语言处理(NaturalLanguageProcessing,NLP)领域取得了显著进展。这些模型通过在大规模文本数据上进行预训练,能够习得语言的基本特征和语义,从而在各种NLP任务上取得了突破性的表现。为了将预训练的LLM应用于特定领域或......