首页 > 其他分享 >Stable Diffusion 的 ControlNet 扩展

Stable Diffusion 的 ControlNet 扩展

时间:2023-05-18 18:33:55浏览次数:51  
标签:Diffusion control ControlNet mediapipe 模型 Stable

本文介绍如何安装 ControlNet 扩展?和 ControlNet 的模型安装,同时给了两个例子。

一、ControlNet 扩展安装

进入 Stable Diffusion 界面,点击扩展标签,选择从 URL 安装,然后输入 ControlNet 网址(https://github.com/Mikubill/sd-webui-controlnet),粘贴到对应的地方,然后点击安装。

完成之后,点击已安装标签,将刚刚安装的扩展选项打钩,随后点应用并重启UI按钮。


重启UI之后,text2img和img2img标签界面下方就会多出一个ControlNet选项。

二、ControlNet 模型下载安装

已经安装了 sd-webui-controlnet 扩展后,您可以从 ControlNet 的 HuggingFace 页面上下载所需的文件(https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main)。

ControlNet 模型文件的命名规范如下:

下载好我们需要的 ControlNet 模型文件后,下面是安装步骤:

  • 从 ControlNet 的 HuggingFace 页面上下载所需的文件。对于Pose模型,您只需要下载以下文件:models/control_sd15_openpose.pth。

  • 将下载的文件放入 stable-diffusion-webui\extensions\sd-webui-controlnet\models 目录中。 注意目录,不是 stable diffusion 模型的目录。

  • 重新启动 Stable Diffusion Webui 即可。注意,必须重启。

三、案例:骨骼姿势识别

姿势识别,用于人物动作,提取人体姿势的骨架特征(posture skeleton)。

姿势提取的效果图很像小时候 flash 上的小游戏“火柴人打斗”,有了这个就不用去网上寻找各种英语姿势tag,而是可以直接输入一张姿势图。下面是相关步骤:

  1. 随便网上找一张相对少见点的姿势,然后稍微裁剪一下,让人物更大一点。
  2. 把图片放进 ControlNet,Enable 打开,预处理器选择 openpose。
  3. 然后点击 Preview annotator result 按钮(星星按钮),生成预处理预览图。

  1. 看预览的骨架图,识别还算精确。(找的图最好是真人,识别会准一点)。
  2. Prompt提示词就写“girl”(女孩),然后点击generate生成按钮。


girl
Steps: 20, Sampler: Euler a, CFG scale: 7, Seed: 1529353483, Size: 512x512, Model hash: 4199bcdd14, Model: revAnimated_v122, Version: v1.2.1, ControlNet: "preprocessor: openpose, model: control_v11p_sd15_openpose [cab727d4], weight: 1, starting/ending: (0, 1), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 64, 64)"

其中使用的骨骼姿势:

四、案例:脸部表情

这里将用到 ControlNet 的新模型, 下载安装方法看第二部分。

需要下载的模型在:
https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace/blob/main/control_v2p_sd15_mediapipe_face.safetensors
同时要下载或配置 yaml文件

  • 对于 1.5 模型,您可以在设置中保留默认的 YAML 配置(尽管您也可以下载 control_mediapipe_face_sd15_v2.yaml 并将其放在模型旁边)。
  • 对于 2.1 模型,您需要下载 control_mediapipe_face_sd21_v2.yaml

下载后,将其放在与模型相同的文件夹中。 在任何一种情况下,您都不需要更改 Controlnet 设置中的默认配置。

使用,注意,我们这里预处理用的是 mediapipe_face

用这个脸部表情,我们可以轻松的生成同样的。

gril
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 556367320, Size: 512x512, Model hash: 4199bcdd14, Model: revAnimated_v122, Version: v1.2.1, ControlNet: "preprocessor: mediapipe_face, model: control_v2p_sd15_mediapipe_face [9c7784a9], weight: 1, starting/ending: (0, 1), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 1, 0.5)"

总结

ControlNet 给 Stable Diffusion 添加了额外控制能力,来引导 Stable Diffusion 按照创作者的创作思路生成图像,从而提升 AI 图像生成的可控性和精度, 要想精准生成类似的, 它是必不可少的。

标签:Diffusion,control,ControlNet,mediapipe,模型,Stable
From: https://www.cnblogs.com/ghj1976/p/stable-diffusion-de-controlnet-kuo-zhan.html

相关文章

  • 记录内网Docker启动Stable-Diffusion遇到的几个坑
    摘要:最近看到K8s启动stable-diffusion的文章,想着在自己开发环境复现一下。没想到在内网环境还遇到这么多问题,记录一下。本文分享自华为云社区《内网Docker启动Stable-Diffusion(AI作画)》,作者:tsjsdbd。最近看到K8s启动stable-diffusion的文章,想着在自己开发环境复现一下。没想到......
  • AI绘画Stable Diffusion整合包V4三分钟超快速入门!
    本次整合包升级内容StableDiffusion整合包V4下载-torch2、xformers0.0.17、cudnn8.8打开无需任何操作即可满速(包括40系显卡-升级其它各种依赖版本-预置了Tagger(图反推关键词)的模型-预置了ControlNet、MultiDiffusion插件-优化了一些其他设置整合包只是打包了运行必须的py......
  • AI生成图片工具——Stable Diffusion
    官方网站stablediffusionweb.comStableDiffusionOnline(stablediffusionweb.com)生成的图片示例提示:对英文支持友好,对中文可能不准。页面截图经过机器翻译......
  • 【换模型更简单】如何用 Serverless 一键部署 Stable Diffusion?
    作者:寒斜本篇章是阿里云函数计算部署StableDiffusion系列的第三篇,如果说第一篇是尝试使用云服务来解决用户本地部署Stable Diffusion的问题(显卡成本,部署技术复杂),第二篇是面向技术同学解决云服务Stable Diffusion的实用性问题(自定义模型,扩展),那么本篇则是以更大众的方式实现......
  • 【论文翻译-RL×Diffusion】Planning with Diffusion for Flexible Behavior Synthesi
    PlanningwithDiffusionforFlexibleBehaviorSynthesis可视化:https://diffusion-planning.github.io/SergeyLevine组的大作,中了ICML2022年的longtalk。究竟是大佬整活,还是将扩散模型用于强化学习的开山之作呢?翻译可能有问题的地方,以原文为准(狗头)。摘要基于模型的强......
  • Stable Diffusion 常用的视角
    角度提示词可以帮助摄影师选择拍摄角度,使得拍摄出的照片更有层次感和视觉冲击力。我们用草地上的一只猫来常见的视角效果:注意:这里我们没法固定seed种子了,因为seed部分时候会固定视角,我们提示词的视角会不起作用。默认不带任何视角PromptacatonthegrassSteps:20,Samp......
  • 视觉族: 基于Stable Diffusion的免费AI绘画图片生成器工具
    视觉族是一款基于StableDiffusion文生图模型的免费在线AI绘画图片生成器工具,可以使用提示关键词快速生成精美的艺术图片,支持中文提示。无论你是想要创作自己的原创作品,还是想要为你的文字增添一些视觉效果,视觉族都可以帮助你实现你的想象。网址链接:https://www.shijuezu.com特......
  • 开源图像模型Stable Diffusion入门手册
    StableDiffusion是2022年发布的深度学习文字到图像生成模型。它主要用于根据文字的描述产生详细图像,能够在几秒钟内创作出令人惊叹的艺术作品,本文是一篇使用入门教程。硬件要求建议使用不少于16GB内存,并有60GB以上的硬盘空间。需要用到CUDA架构,推荐使用N卡。(目......
  • Stable Diffusion 的 CFG Scale 参数
    在图像生成过程中,CFGScale参数是一个关键因素,它控制着文本提示对生成图像的影响程度。简而言之CFGScale:参数越大,生成的图像与文本提示的相关性越高,但可能会失真。数值越小,相关性则越低,越有可能偏离提示或输入图像,但质量越好。在实际应用中,将其设置在7到11之间往往能......
  • 如何用 Serverless 一键部署 Stable Diffusion?
    思路其实很简单,我们只需要将镜像里面的动态路径映射到NAS文件存储里面即可,利用NAS独立存储文件模型,扩展,语言包等,并且我们可以为管理NAS单独配置一个可视化的后台,用简单的文件上传删除的方式管理我们的文件,为此我们需要展开打镜像的脚本,为了完成全套的流程我们接下来盘一下......