首页 > 其他分享 >AI绘画Stable Diffusion 挽救渣图的神器—Loopback Scaler脚本,你值得拥有!

AI绘画Stable Diffusion 挽救渣图的神器—Loopback Scaler脚本,你值得拥有!

时间:2024-06-18 14:30:33浏览次数:19  
标签:Diffusion 原图 scaler Scaler 迭代 Loopback loopback AIGC 设置

大家好,我是向阳

今天这篇文章就是围绕着开局的这两张原图开始的。

在Stable diffusion甚至当前所有的AI画图工具里面,AI生成内容随机性都是一个很大的问题。

我们经常遇到一张图构图不错但是脸崩了,又或者人物形象不错但是背景画得崩了这样的问题。

前者我们往往把图扔到图生图里面在脸部画个蒙版继续扔色子。而后者一般调整prompt重绘或者像前面一样到图生图里面打蒙版,重绘背景。

今天分享一个新工具——loopback scaler,这个新工具将给你带来不一样的解决办法,而且还有更多的可玩性,先说结论。

经过简单试用,总结一下这个工具能做的事情:

  • 渣图挽救者:在图生图中对原图迭代重绘,修复渣图。脚本在多个循环中处理输入图像,每个循环提高分辨率并优化图像质量。然后,一个循环的图像结果作为下一个循环的输入图像插入,该循环不断基于已创建的内容构建;

  • 降噪变化:可以针对每个循环调整去噪强度,使用户能够在保留细节和减少伪影之间取得平衡;

  • 图像滤镜:支持对补绘的图片设定锐度、亮度、对比度、饱和度,也支持对画面细节、模糊、平滑度进行设置;

  • 一种新的分辨率提升方式,可以在重绘中对分辨率扩增,而且这是一种自适应更改——脚本根据输入图像的平均强度调整每个循环的分辨率增加量。这有助于产生更自然的效果;

  • 深化细节,补绘原图,支持重设prompt增加原图没有的细节;

  • 支持输出深化后的线稿;


二.安装

2.手动安装

loopback scaler脚本下载请扫描获取哦

将脚本移动到文件夹:\stable-diffusion-webui\scripts;

关闭web UI;重新启动web UI;


三.实操体验

1.先画出原图

完成上面的工作,我们开始实际体验,例子就用文章开始的这个图片,生成的正反prompt如下(一会儿会用到):

正向提示词:

((masterpiece)),(high quality),(line art watercolor wash),Cyan and orange primary colors,2d Illustrations,A majestic Dunhuang Nüwa with a shimmering gold halo, soaring through the sky,delicate eyes,black clothes,floating hair,dress tangstyle hanfu,very long hair,ethereal background, abstract beauty, approaching perfection, pure form, golden ratio, minimalistic, full body,wide view, by Brian Froud and Carne Griffiths and Wadim Kashin and John William Waterhouse, intricate details, 8k post production, high resolution, hyperdetailed, trending on artstation, sharp focus, studio photo, intricate details, highly detailed, by greg rutkowski

反向提示词:

(((2 heads))), (((duplicate))), ((malformed hand)), ((deformed arm)), ((freckle)), naked, man, men, blurry, abstract, deformed, thick eyebrows, cartoon, animated, toy, figure, framed, 3d, cartoon, bad art, deformed, poorly drawn, extra limbs, close up, weird colors, blurry, watermark, blur haze, long neck, watermark, elongated body, cropped image, out of frame, draft, (((deformed hands))), ((twisted fingers)), double image, ((malformed hands)), multiple heads, extra limb, ugly, ((poorly drawn hands)), missing limb, cut-off, grain, bad anatomy, poorly drawn face, mutation, mutated, floating limbs, disconnected limbs, out of focus, long body, disgusting, extra fingers, (weird figure), missing arms, mutated hands, cloned face, missing legs, long neck,modern buildings,((watermark:2))

跳过文生图的步骤,这一步大家应该都已经掌握。就不详细说了。

在这里多说一点的是,因为我这张图为了拟合某种青绿色调、扁平化的国风插画,所以描述词中用了很多篇幅来形容画风和色调,这就导致一些二次元的模型比如Counterfeit、anything跑图时会出现问题,所以选择了泛用性好的大模型比如SD 1.5这种。

实际上这张图是在dreamstudio上的SD XL预览模型跑的,在没有controlnet和lora的加持下,人脸毫无意外的垮了,接下来我们开始挽救这张图。

2.开始魔法救场

(1)把图拖入图生图工作界面

填好上面的正词、反词,这里有个技巧如果你需要修改画面风格、背景或者替换某些元素,在这一步可以修改你的正词。

原图和后面loopback scaler深化的正反词无需一致,其实loopback scaler的作者也已经指出:“您可以在 img2img 中放置与您创建源图像时使用的提示不同的提示。这种方法得出了非常有趣的结果”。

(2)选择合适的创作模型

因为前面为了适配画风选择了基础大模型,而得到的结果并不好,这时候比如我们想深化为二次元图片,那么我们这时候可以选择Counterfeit、anything这种模型了,如果要画真人风也可以选择chilloutmix、deliberate等等。

因为loopback scaler会帮我们迭代深化,所以模型我们可以放心使用了,这里我选择了Counterfeit这个二次元模型,需要注意这个模型需要加载vae,不要忘记。

(3)开始设置图生图参数

根据github上作者文档,可以看到有几个地方需要特别注意:

在这里插入图片描述

a)缩放模式选择剪裁;

b)采样方法选择DDIM,采样步数设置为30;

c)宽度、高度这里保持原图的大小,而且建议原图不要出图太大,loopback scaler迭代中原图大小是影响性能的最重要因素,而迭代次数并不是主要压力来源,所以性能不好的机器原图请出512*512的,而且图生图这里不要修改!

d)提示词相关性(CFG值)按照惯例保持6~8之间即可;

e)重绘幅度(降噪)设置在0.2~0.4之间,设置的越低每次迭代间变化就越少,反之结果与原图的差距就会越大,我们的原图因为比较垮,所以设置在比较高的值。

f)随机种子建议保持在-1,锁种子对于迭代应该没有意义。

g)如果需要lora,可以设置,实测是可以使用的。

(4)开始设置loopback scaler参数

到页面的最下方(默认布局)的脚本下拉选框中选中Loopback Scaler,开始设置迭代参数:

a) loops(循环次数):作者建议4~10之间,最高可以设置到32,但是设置过高会导致图片出现伪影,呈现负优化,作为演示我这里就设置为4,多说一句这里设置高低其实不受计算机性能限制,但是会导致出图时间变长,所以大家可以自己测试;

b) denoise change(降噪变化)和adaptive change(自适应变化)前者决定每次迭代中的降噪变化,设置为1则保持img2img 设置中设置的去噪强度(前一节第5步的设置值)。后者则是更改每个迭代中降噪变化的增加量,实现迭代的更改不呈线性,该值越高,在循环结束时分辨率变化越显著。在这里我们暂时都不修改,保持为1。

c)最大宽度和最大高度这是设置最终深化得到的图片大小,所以可以看到loopback scaler是可以放大图片的。这也是一开始建议大家原图只出512*512即可的原因。但是需要注意的是因为loopback scaler与ultimate SD upscale原理不同,不会分片绘制放大来节省显存占用,所以这里不建议大家用loopback scaler放大过高尺寸。根据经验设置在1024即可,如需大尺寸图片,后期可配合别的重绘放大工具,如ultimate SD upscale。

d)上图蓝色标出区域为图片滤镜设置,深化过程中如果需要添加细节,可以将detail调高,如需模糊则调整blur,如果需要平滑则调整smoothing。再下方则是锐度、亮度、色彩、对比度设置,按需调整即可。我们需要得到色彩浓郁、明亮、清晰的图片,所以我做了以上调整。

e)contour不要勾选,如果需要输出深化后图片的线稿则需要勾选这里。

(5)点击生成,等待魔法完成。

生成过程中,千万不要修改图生图界面的正反引导词!这将导致生成结果混乱,这一点脚本的作者也是在GitHub上特别指出的!

所以点击生成后就耐心等待吧。

有一个非常有意思的特点,你可以到\stable-diffusion-webui\output\img2img-images文件夹下看到每次迭代的图片,可以看到图片从渣逐渐优化的过程,每一次迭代产生的图片都是保存在那里,当然通常这没有什么意义,因为输出的最后一张往往是最好的。

但是如果你迭代次数设置过高(超过了10步),你可能得到负优化的图片了,那么这个方式可以帮助你回退到比较理想的结果。

关于loopback scaler的魔法大家自己去挖掘吧,因为这个脚本是通过循环迭代的原理将上一个循环扔个下一个循环继续生成,可以理解为给AI叠buff。

所以将来遇到画崩了图的时候,可以尝试用这个脚本挽救一下,往往会有意想不到的效果。

最后po一些更换其他模型的图:

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除

标签:Diffusion,原图,scaler,Scaler,迭代,Loopback,loopback,AIGC,设置
From: https://blog.csdn.net/A13531922962/article/details/139771503

相关文章

  • 【Stable Diffusion教程】AI绘画工具SD如何安装使用?三种方法带你轻松上手!(附安装包和云
    大家好,我是向阳AI绘画专业工具StableDiffusion在哪里用怎么安装?这一期给大家介绍三种使用SD的方法,无论你有没有专业显卡都能轻松上手SD哦~一、SD本地部署秋葉安装包安装方法如果你有进一步的需求,想要学习SD的高端玩法,有高端显卡的同学们我建议本地安装部署一下SD。这里要......
  • stable-diffusion-3-medium 大模型下载地址
    由于huggingface.co下载速度不佳,放在夸克网盘上了:https://pan.quark.cn/s/6ab1885c2e51 有条件的可以从huggingface下载:https://huggingface.co/stabilityai/stable-diffusion-3-medium/tree/main StableDiffusion3Medium是基于OpenAI的扩散模型理论基础之上发展的......
  • 欢迎 Stable Diffusion 3 加入 Diffusers
    作为StabilityAI的StableDiffusion家族最新的模型,StableDiffusion3(SD3)现已登陆HuggingFaceHub,并且可用在......
  • Midjourney和stable diffusion到底有什么区别?要怎么选?
    前言目前AIGC领域里最强的两款软件,Midjourney(MJ)和stablediffusion(SD)到底有什么区别?我们应该怎么选择呢?这是很多新手朋友经常问的问题,这篇文章对此问题专门进行解释说明。视频版在aigc界的地位MJ和SD在aigc界都算是“顶流”的存在。基本上没有能与之抗衡的其他主流产品......
  • 这份 Stable diffusion 提示词攻略,记得收好了!
    大家好,今天给大家分享的是关于Stablediffusion提示词的基础和进阶语法,为什么有必要了解这个呢?首先是提示词对出图效果影响很大,了解提示词的用法有助于我们写出更优秀的提示词;其次就是我们可能会去C站拷贝别人的提示词,虽然直接拷贝过来也能得到不错的效果,但这样只会“知其......
  • Stable Diffusion3 开源!一文教你玩转 Stable Diffusion3
    节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。汇总合集:《大模型面试宝典》(2024版......
  • AI绘画最强SD(Stable Diffusion)玩法实操教学案例及商业变现项目分享
    AI绘画现在越来越火爆了,很多人无论大人小孩都在玩,还有的很多电商老板也在使用辅助生成产品主图和详情页,可以说是非常的实用。而其中最让人追捧和好评的就是SD(StableDiffusion)这款AI绘图软件了,StableDiffusion是一款基于深度学习的图像生成工具,它可以根据文本描述生成高质......
  • Stable Diffusion室内设计文生图实操
    各们设计师,伙伴们,用Ai设计的时候,都知道需要模型才能使效果更佳理想,但是除了模型需要训练之外,还需要提示词,好的提示词和反向词,结合模型才能,完美生成效果。今天,我就分享文生图实操,伙伴们可以借鉴,特别是提示词,这是生图的关键要素。StableDiffusion室内设计文生图1、准备一张......
  • 醒醒吧!你们的Stable Diffusion都用错了!【table Diffusion必装插件使用攻略】让你的AI
    哈喽,大家好,我是AI极客菌,今天给大家分享一下StableDiffusion的插件使用攻略。一、什么是插件StableDiffusion的插件主要是用来丰富SD的一些功能,例如C站助手,提示词助手,图片信息助手等插件都是为了增强SD的实用性。二、安装插件我们以C站助手为例,C站助手可以将从C站(civi......
  • Stable Diffusion【二次元模型】:超级出色的动漫大模型
    今天给大家介绍的是一个动漫风格的大模型AnimagineXL3.1。AnimagineXL3.1基于StableDiffusionXL构建,旨在通过生成准确而详细的动漫角色,成为动漫迷、艺术家和内容创作者的宝贵资源。AnimagineXL3.1是AnimagineXLV3系列的升级更新,增强了之前的AnimagineXL......