首页 > 其他分享 >ComfyUI进阶篇:ControlNet核心节点

ComfyUI进阶篇:ControlNet核心节点

时间:2024-07-11 18:31:44浏览次数:17  
标签:输出 ControlNet ComfyUI 模型 进阶篇 图像 节点

前言:
ControlNet_aux库包含大量的图片预处理节点,功能丰富,适用于图像分割、边缘检测、姿势检测、深度图处理等多种预处理方式。掌握这些节点的使用是利用ControlNet的关键,本篇文章将帮助您理解和学会使用这些节点。
目录
一、安装方法
二、模型下载
三、Segmentor节点
四、Lines节点
五、Color Pallete/Content Shuffle节点
六、OpenPose节点
七、Depth节点
八、MeshGraphormer Hand Refiner节点
九、ControlNet示例工作流

一、安装方法
在ComfyUI主目录里面输入CMD回车。

在弹出的命令提示行输入git clone +github下载网址,即可开始下载。

github项目地址:https://github.com/Fannovel16/comfyui_controlnet_aux.git

二、模型下载
ControlNet-SD1.5模型下载地址:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main
注意:模型下载需同时下载ControlNet模型和模型对应的配置文件(yaml)文件。

三、Segmentor节点
该节点是用来执行图像分割任务的,并用不同颜色标注出图像区域
添加节点:Anime Face Segmentor/ UniFormer Segmentor/ Semantic Segmentor (legacy, alias for UniFormer)/ OneFormer COCO Segmentor/ OneFormer ADE20K Segmentor

输入:
Image → 需要进行预处理的原始图片
参数:
remove_background_using_abg → 自动生成的二值化字符掩码,从图像中分离对象
resolution → 输出图像的分辨率 此值会影响最终的图像分割结果
输出:
IMAGE → 输出图像分割后的结果
ABG_CHARACTER_MASK(MASK) → 输出蒙版结果
注意:这些节点的使用会自动下载相应的模型,模型存放位置为:
..\ComfyUI\custom_nodes\comfyui_controlnet_aux\ckpts\lllyasviel\Annotators
通过使用 Segmentor 节点,用户可以在 ComfyUI 中方便地进行图像分割任务,从而在不同的应用场景中利用分割结果进行进一步的图像处理和分析。

四、Lines节点
该节点是一种用于检测图像中的线条或边缘的工具。
添加节点:Binary Lines/ Standard Lineart/ HED Soft-Edge Lines/Scribble Lines/ Anime Lineart/ PiDiNet Soft-Edge Lines/ TEEDPreprocessor/ Scribble XDoG Lines/ Canny Edge/ M-LSD Lines/ Fake Scribble Lines (aka scribble_hed)/ Manga Lineart/ Diffusion Edge/ Realistic Lineart/

输入:
image → 需要处理的原始图像
参数:
bin_threshold → 表示阈值 该阈值会影响边缘检测效果,可进行更改尝试效果
safe → 该参数控制着 HED 算法中的行为 比如异常值处理,边缘链接等
guassian_sigma → 表示高斯滤波核 图像边缘检测前一般会进行降噪,此时用到高斯滤波核
patch_batch_size → 表示边缘检测时批次数量 图像一般会被分块进行处理,块成为patch
resolution → 表示输出图像的分辨率 该值会影响最终的检测效果
注意:这些节点的参数较多,上图的对比仅使用默认的参数进行跑图,具体的情况还需要大家进行多次尝试,上图效果仅供参考。
输出:
IMAGE → 输出图像的边缘检测信息结果
通过使用 Lines 节点,用户可以在 ComfyUI 中轻松实现图像中的线条检测,从而为进一步的图像分析和处理提供有价值的信息。

五、Color Pallete/Content Shuffle节点
在ComfyUI中,Color Palette 节点是用来提取图像中的颜色信息并生成一个颜色调色板的工具。Content Shuffle 节点是用来随机化或重排输入数据或图像内容的工具。这两个节点主要作用是保持图像的画风一致,配合shuffle的ControlNet使用。

输入:
image → 加载原始图像
参数:
resolution → 表示输出图像的分辨率 此值的设定会影响最终结果
seed → 随机数种子
control_after_generate → 产生种子之后,以何种方式进行处理 递增,递减,固定
输出:
IMAGE → 输出处理之后的图像

·而通过使用 Content Shuffle 节点,用户可以在 ComfyUI 中轻松实现数据或图像内容的随机化或重排,从而为各种应用场景提供有用的工具和方法。

六、OpenPose节点
该节点是用来进行人体姿态估计的工具。
添加节点: AnimalPose Estimator (AP10K)/MediaPipe Face Mesh/ OpenPose Pose

输入:
image → 接收一幅或多幅包含人体的图像作为输入
参数:
model → 选择进行检测的模型
bbox_detector → 加载探测框识别模型
pose_estimator → 加载姿势识别模型
max_faces → 参数用来指定一张图片最多出现人脸数量
min_confidence → 代表了模型对于检测到的人脸的最小置信度阈值。
注意:当模型检测人脸时会给出一个数值,当值低于min_confidence则认为不是人脸。
输出:
IMAGE → 输出检测后的图像
POSE_KEYPOINT → 参数可能包含姿势检测结果的坐标信息,通常以一个列表或数组的形式呈现。
通过使用 OpenPose 节点,用户可以在 ComfyUI 中轻松实现人体姿态估计,并将检测到的关节点和骨骼信息应用于各种计算机视觉任务和应用场景。

七、Depth节点
该节点是用于生成和处理图像的深度信息的工具。

输入:
image → 输入原始图片
参数:
bg_threshold → 给出背景的阈值,以此值为基准进行背景分离
rm_nearest → 设置像素插值 该值主要针对主体
rm_background → 设置背景阈值 该值过大会使得背景无深度信息
boost → 是否开始深度图增强模式 开启,深度图会进行后处理,使深度信息更明显
resolusion → 输出图像的分辨率
输出:
IMAGE → 输出处理后的深度图像信息
通过使用 Depth 节点,用户可以在 ComfyUI 中轻松生成和处理图像的深度信息,深度图常配合depth的ControlNet使用,如下图所示的工作流,使用原图获得深度图信息,通过ControlNet指导模型进行扩散,最终生成与深度图吻合的图像。

八、MeshGraphormer Hand Refiner节点
该节点是一种用于精细化手部姿态估计的工具。它利用 MeshGraphormer 模型的强大能力,从图像中提取手部的精细3D结构信息。

输入:
images → 接收输入的图像 需要包含手部信息
参数:
mask_bbox_padding → 输出的蒙版大小 该值只有在mask_type=original时起作用
resolution → 输出图像的分辨率
mask_type → 选择输出蒙版的类型
mask_expand → 蒙版区域扩大范围
rand_seed → 给出种子用来生成输出结果
输出:
IMAGE → 输出供ControlNet参考的预处理图像
INPAINTING_MASK → 输出对应手部的蒙版
通过使用 MeshGraphormer Hand Refiner 节点,用户可以在 ComfyUI 中实现高精度的手部姿态估计和精细化处理,为各种应用场景提供准确和详细的手部姿态数据。使用该节点生成对应的深度图信息和手部的蒙版,将深度图信息传入ControlNet用来引导模型扩散出指定的形状。

九、ControlNet示例工作流
熟练使用以上节点,你就可以搭建有关ControlNet的工作流了。

在这里,我们使用SD1.5的大模型,通过手部修复节点生成原图中人物手部的蒙版和修复所需的深度图。接下来,将深度图传入ControlNet以指导模型扩散,并使用Clipinterrogator节点对原始图像进行语义反推,从而修复人物的手部。最终,得到原图和修复后的图像。

孜孜以求,方能超越自我。坚持不懈,乃是成功关键。

标签:输出,ControlNet,ComfyUI,模型,进阶篇,图像,节点
From: https://www.cnblogs.com/LIU-QiuXue/p/18296438

相关文章

  • 开源模型应用落地-FastAPI-助力模型交互-进阶篇(一)
    一、前言  FastAPI的高级用法可以为开发人员带来许多好处。它能帮助实现更复杂的路由逻辑和参数处理,使应用程序能够处理各种不同的请求场景,提高应用程序的灵活性和可扩展性。  在数据验证和转换方面,高级用法提供了更精细和准确的控制,确保输入数据的质量和安全性。它......
  • ComfyUI进阶篇:ControlNet核心节点
    前言:ControlNet_aux库包含大量的图片预处理节点,功能丰富,适用于图像分割、边缘检测、姿势检测、深度图处理等多种预处理方式。掌握这些节点的使用是利用ControlNet的关键,本篇文章将帮助您理解和学会使用这些节点。目录一、安装方法二、模型下载三、Segmentor节点四、Lines......
  • 关于ComfyUI的一些Tips
    关于ComfyUI的一些Tips前言:最近发的ComfyUI相关文章节奏不知道会不会很快,在创作的时候没有考虑很多,想着把自己的知识分享出去。后台也看到很多私信,有各种各样的问题,这是我欠缺考虑了,今天这篇文章呢,根据私信的问题我大致整理了一下,给大家一些小tips。目录一、将ComfyUI安装在......
  • 【ComfyUI教程】超自然的AI 任意换脸!保姆级教程(附资料)
    嘿,说到拍照,咱们男生有时候也挺头疼的,尤其是帮女朋友或者老婆挑衣服的时候。你懂的,一不小心就可能踩雷,好心办坏事。但别担心,今天我要介绍的这个ComfyUI,简直就是咱们的救星!想象一下,你和女朋友或者老婆一起挑选艺术照的服装,用ComfyUI,你们可以先预览各种风格的搭配,看看哪一款最......
  • AI绘画comfyui工作流,商业海报设计、Logo设计,一个comfyui工作流就能搞定!
    前言创新设计工作流:轻松打造LOGO和海报本文涉及的工作流和插件,需要的朋友请扫描免费获取哦—HAPPYNEWYEAR—大家好!今天我要分享的是一个高效且创新的设计工作流,这一工具由国外的网友无私分享,适用于LOGO设计和海报创作。这不仅是对开源精神的致敬,也为我们的设计工......
  • Comfyui中图生图工作流,这样去掉参考图的背景
    本篇文章继续解决上一篇Comfyui加载大模型的注释文件,选择模型后参数设置不再迷茫中篇尾提到的问题,即怎么解决参考图背景太复杂,怎么去掉参考图的背景呢,下面的工作流就可以仔细观察今天这个图生图工作流,发现和上一篇的工作流整体区别不大,只是添加了四个新节点,这四个节点整体提......
  • Comfyui加载大模型的注释文件,选择模型后参数设置不再迷茫
    上一篇Comfyui基础图生图工作流只需8个节点中末尾提到了两个问题,这一篇先解决第一个问题,就是我们下载了很多大模型,选择大模型时,记不住这个大模型的推荐参数怎么办?解决方法就是使用一个自定义的大模型加载节点替换原本的基础大模型加载节点观察下面这个基于上一篇基础图生图优......
  • ComfyUI进阶篇:ComfyUI核心节点(四)
    ComfyUI核心节点(四)前言:学习ComfyUI是一场持久战。当你掌握了ComfyUI的安装和运行之后,会发现大量五花八门的节点。面对各种各样的工作流和复杂的节点种类,可能会让人感到不知所措。在这篇文章中,我们将用通俗易懂的语言对ComfyUI的核心节点进行系统梳理,并详细解释每个参数。希望大......
  • AI绘画Stable Diffusion:ControlNet组件—Scribble(涂鸦)赋予用户精细控制权,让涂鸦草图焕
    大家好,我是画画的小强今天给大家分享一下AI绘画StableDiffusion当中的:ControlNetScribble组件,**Scribble(涂鸦)**技术是一种能够为用户提供独特的手动注释或标记图像(如:涂鸦、简笔画等)的方法技术,可被用来引导SD图像生成过程。ControlNetScribble简介ControlNetScribble......
  • ComfyUI进阶篇:ComfyUI核心节点(三)
    ComfyUI核心节点(三)前言:学习ComfyUI是一场持久战。当你掌握了ComfyUI的安装和运行之后,会发现大量五花八门的节点。面对各种各样的工作流和复杂的节点种类,可能会让人感到不知所措。在这篇文章中,我们将用通俗易懂的语言对ComfyUI的核心节点进行系统梳理,并详细解释每个参数。希望大家......