本文介绍如何安装 ControlNet 扩展?和 ControlNet 的模型安装,同时给了两个例子。
一、ControlNet 扩展安装
进入 Stable Diffusion 界面,点击扩展标签,选择从 URL 安装,然后输入 ControlNet 网址(https://github.com/Mikubill/sd-webui-controlnet),粘贴到对应的地方,然后点击安装。
完成之后,点击已安装标签,将刚刚安装的扩展选项打钩,随后点应用并重启UI按钮。
重启UI之后,text2img和img2img标签界面下方就会多出一个ControlNet选项。
二、ControlNet 模型下载安装
已经安装了 sd-webui-controlnet 扩展后,您可以从 ControlNet 的 HuggingFace 页面上下载所需的文件(https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main)。
ControlNet 模型文件的命名规范如下:
下载好我们需要的 ControlNet 模型文件后,下面是安装步骤:
-
从 ControlNet 的 HuggingFace 页面上下载所需的文件。对于Pose模型,您只需要下载以下文件:models/control_sd15_openpose.pth。
-
将下载的文件放入 stable-diffusion-webui\extensions\sd-webui-controlnet\models 目录中。 注意目录,不是 stable diffusion 模型的目录。
-
重新启动 Stable Diffusion Webui 即可。注意,必须重启。
三、案例:骨骼姿势识别
姿势识别,用于人物动作,提取人体姿势的骨架特征(posture skeleton)。
姿势提取的效果图很像小时候 flash 上的小游戏“火柴人打斗”,有了这个就不用去网上寻找各种英语姿势tag,而是可以直接输入一张姿势图。下面是相关步骤:
- 随便网上找一张相对少见点的姿势,然后稍微裁剪一下,让人物更大一点。
- 把图片放进 ControlNet,Enable 打开,预处理器选择 openpose。
- 然后点击 Preview annotator result 按钮(星星按钮),生成预处理预览图。
- 看预览的骨架图,识别还算精确。(找的图最好是真人,识别会准一点)。
- Prompt提示词就写“girl”(女孩),然后点击generate生成按钮。
girl
Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 1529353483, Size: 512x512, Model hash: 4199bcdd14, Model: revAnimated_v122, Version: v1.2.1, ControlNet: "preprocessor: openpose, model: control_v11p_sd15_openpose [cab727d4], weight: 1, starting/ending: (0, 1), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 64, 64)"
其中使用的骨骼姿势:
四、案例:脸部表情
这里将用到 ControlNet 的新模型, 下载安装方法看第二部分。
需要下载的模型在:
https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace/blob/main/control_v2p_sd15_mediapipe_face.safetensors
同时要下载或配置 yaml文件
- 对于 1.5 模型,您可以在设置中保留默认的 YAML 配置(尽管您也可以下载 control_mediapipe_face_sd15_v2.yaml 并将其放在模型旁边)。
- 对于 2.1 模型,您需要下载 control_mediapipe_face_sd21_v2.yaml
下载后,将其放在与模型相同的文件夹中。 在任何一种情况下,您都不需要更改 Controlnet 设置中的默认配置。
使用,注意,我们这里预处理用的是 mediapipe_face
用这个脸部表情,我们可以轻松的生成同样的。
gril
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 556367320, Size: 512x512, Model hash: 4199bcdd14, Model: revAnimated_v122, Version: v1.2.1, ControlNet: "preprocessor: mediapipe_face, model: control_v2p_sd15_mediapipe_face [9c7784a9], weight: 1, starting/ending: (0, 1), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 1, 0.5)"
总结
ControlNet 给 Stable Diffusion 添加了额外控制能力,来引导 Stable Diffusion 按照创作者的创作思路生成图像,从而提升 AI 图像生成的可控性和精度, 要想精准生成类似的, 它是必不可少的。
标签:Diffusion,control,ControlNet,mediapipe,模型,Stable From: https://www.cnblogs.com/ghj1976/p/stable-diffusion-de-controlnet-kuo-zhan.html