首页 > 其他分享 >【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿

【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿

时间:2024-12-17 11:57:50浏览次数:11  
标签:Diffusion 4x 算法 高清化 CSDN Stable 8x 免费 放大

说到后期处理板块,大家第一印象就是图像放大,快速且高效。但是今天要讲的后期处理当中,肯定还有一些是你不知道的事儿。

这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述

# 放大算法

首先是关于放大算法,如果大家用的都是秋叶大佬的整合包的话,算法总共应该就是这些。常用的就是“R-ESRGAN 4x+”做写实图片,“R-ESRGAN 4x+
Anime6B”做二次元图片。

但是经常去C站,copy一些别人的作品却老是发现他们用的放大算法是什么“4x-UltraSharp”之类的高级货。

那就是因为,这些高端的放大算法,你还没下载。

所以,我在这里整理了四款更厉害的放大算法,分别是:“4x-UltraSharp”、“8x_NMKD-
Superscale_150000_G”、“8x_NMKD-
Typescale_175k”、“16xPSNR”。并将它们放在了云盘里,大家下载之后,将这四款放大算法放入“……\sd-webui-
aki-v4.2\models\ESRGAN”这个路径之中,然后重启软件。

就可以看到这四款新的放大算法了。

我们以这张图作为例子来测试一下,这张图片现在分辨率是512*512。

我将这张图发送到后期处理,分别使用一个传统算法“Lanczos”、一个常用算法“R-ESRGAN 4x+ Anime6B”,和刚才下载的四个算法做一个对比。

图片太小,大家可能看不清细节,我直接来做一下总结。

传统放大算法Lanczos对原图没有任何优化,仅仅只是放大像素,直接pass。

曾经的王者“R-ESRGAN 4x+ Anime6B”表现蛮好的,放大之后,图片有了更多的细节和更清晰的轮廓。

但是和新晋放大器“4x-UltraSharp”比起来,还是弱了一些,“4x-UltraSharp”拥有更清晰的细节,而且没有过度锐化的部分。

随着前面数字的增加,8x、16x系列的放大器,拥有了更真实的处理细节,不仅仅只追求把人物还原得光滑好看,而是增加了很多噪点和毛孔细节,让人物看起来更加真实可信。

这四个新算法呢,正常情况下推荐“4x-UltraSharp”效果相当好,“8x_NMKD-
Superscale_150000_G”色调相当偏冷一些,“8x_NMKD-
Typescale_175k”,比4x的放大器皮肤噪点更多,如何取舍就取决于你需要多高的真实度了,至于“16xPSNR”,生图速度有点慢,效果相对于8x而言没有明显提升,不建议使用。

这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述

# 面部修复

我们接着来看一下这个GFPGAN面部修复,我找一张模糊人像来修复一下。

其他参数不变,直接将GFPGAN参数拉到1,就可以了。

看一下面部修复效果,宛如重生。当然这个功能只能修复脸部,所以头发、衣服、背景等没有变化。

# 背景去除

这个功能需要再安装一个插件REMBG,安装地址是https://github.com/AUTOMATIC1111/stable-diffusion-
webui-rembg.git 。

安装好之后重启,就有这个选项框了。

使用这张图测试一下,模型就选第一个u2net,直接点击生成。

抠图效果还是蛮不错的,边缘轮廓有些黑边,用时2.86秒。

如何去掉这个黑边呢,需要点击后面的Alpha matting,来调整一些参数。它们分别控制抠图边缘尺寸,前景阈值、背景阈值。

通过一系列测试,推荐给大家一套比较通用的参数设置——Erode size:6、Foreground threshold:143、Background
threshold:187。

通过这个参数,我们就能一键得到没有黑边的图像了。

另外,点击这个按钮,还可以直接生成蒙版。

这里还有一个专门做服装抠图的模型,可以一键识别出模特的服装。

这就非常方便我们做换装的处理了。

还有一个专门给动漫抠图的模型。

我们使用这张图测试一下。

抠图效果还是可以的,可能是背景比较复杂,用时19秒。

文章使用的大模型、Lora模型、SD插件、示例图片等,都已经上传到我整理的 Stable Diffusion 绘画资源中。有需要的小伙伴文末扫码自行获取。

这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述

提示词

Stable Diffusion 最强提示词手册

  • Stable Diffusion介绍
  • OpenArt介绍
  • 提示词(Prompt) 工程介绍

在这里插入图片描述

第一章、提示词格式

  • 提问引导
  • 示例
  • 单词的顺序

在这里插入图片描述

有需要的朋友,可以点击下方卡片免费领取!

第二章、修饰词(Modifiers)

  • Photography/摄影
  • Art Mediums/艺术媒介
  • Artists/艺术家
  • Illustration/插图
  • Emotions/情感
  • Aesthetics/美学

在这里插入图片描述

在这里插入图片描述

第三章、 Magic words(咒语)

  • Highly detailed/高细节
  • Professional/专业
  • Vivid Colors/鲜艳的颜色
  • Bokeh/背景虚化
  • Sketch vs Painting/素描 vs 绘画

在这里插入图片描述

第四章、Stable Diffusion参数

  • Resolution/分辨率
  • CFC/提词相关性
  • Step count/步数
  • Seed/种子
  • Sampler/采样
  • 反向提示词(Prompt)

在这里插入图片描述

第5章 img2img(图生图),in/outpainting(扩展/重绘)

  • 将草图转化为专业艺术作品
  • 风格转换
  • lmg2lmg 变体
  • Img2lmg+多个AI问题
  • lmg2lmg 低强度变体
  • 重绘
  • 扩展/裁剪

第6章 重要提示

  • 词语的顺序和词语本身一样重要
  • 不要忘记常规工具
  • 反向提示词(Prompt)

第7章 OpenArt展示

  • 提示词 (Prompt)

  • 案例展示

  • 这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
    在这里插入图片描述

标签:Diffusion,4x,算法,高清化,CSDN,Stable,8x,免费,放大
From: https://blog.csdn.net/ice_99/article/details/144531352

相关文章

  • 解决|配置denoising diffusion bridge model环境|flash-att、openmpi、mpi4py安装问题
    目录安装flash-att安装openmpi和mpi4py我在配置DDBM(https://github.com/alexzhou907/DDBM/tree/main)环境时遇到的问题:1、flash-att安装失败2、openmpi和mpi4py安装失败以下是基于我的情况的解决办法安装flash-attflash-att(1)对CUDA版本有要求(2)pytorch版本需与flash-att版本有......
  • AI绘画,5分钟用 stable diffusion 做装修图,室内设计师要失业了
    哈喽这里是海绵前言AI绘画功能越来越强大,不光可以用来画人物,为电商模特一键换衣,还可以在5分钟内生成一张室内效果图,看来室内设计师饭碗也岌岌可危了。1、获得室内线稿图首先,打开3dsmax,简单用box堆一个室内场景出来,你用其他三维软件也可以,然后将这个场景渲染出一个线稿......
  • AI绘画 Stable Diffusion【进阶篇】:Recolor模型实现头发衣服换色
    哈喽这里是海绵在艺术创作中,颜色的运用至关重要。如今,借助StableDiffusion的Recolor模型,你只需一键操作,就能轻松实现头发和衣服的换色。本文将带你深入了解StableDiffusionRecolor模型的使用方法,助你轻松掌握这一技巧。StableDiffusion是一款基于深度学习的图像生成......
  • DDPM, DDIM, LDM 和stable diffusion
    以下是这些模型的发展历程的概述:DDPM(DenoisingDiffusionProbabilisticModels):DDPM是扩散模型的早期形式,它通过逐步去噪的方式生成高质量数据,但其效率较低,特别是在处理高分辨率图像时需要耗费大量的计算资源。DDIM(DenoisingDiffusionImplicitModels):DDIM是DDPM的......
  • AIGC绘画设基础入门|Stable diffusion 最新版本来袭,安装包4.8.7升级版来了!
    本期给大家带来了最新的StableDiffusion2024最新4.8.7版本工具包包含安装教程、各种主流模型和最新AI学习课程无需部署安装,解压就可以直接使用!!!让你快速上手想体验的伙伴赶紧来试试吧StableDiffusion是以文本生成图像的AI工具,也是目前唯一一款能部署在家用电脑上......
  • 【stablediffusion教程】的基础操作和使用技巧分享
    这是一篇关于stablediffusion本地部署并通过基础模型搭配不同的lora生成图片的教程,软件很容易获取,对电脑的要求也不是太高,相较于本地化的chatglm动不动就要6G显存的门槛还是很低的,根据不同性能显卡,同样的参数生成图片的速度也不一样,4090-24G版本的几秒就可以生成一张图,1060-......
  • 【stablediffusion教程】你们要的AI换装秀来了,一秒换10件衣服,AI绘画详细教程
    前言昨天有粉丝留言,问如何让人物在保持现有姿势不变的情况下对小姐姐的图片进行换装,这不,你们要的AI换装秀来了,具体如何制作,看我一步一步操作给大家看。1、准备****换装图片首先,先准备一段tag,我们用它生成一个AI小姐姐的图片。当然,你也可以自己准备一张现实中拍的图片......
  • 【StableDiffusion教程】使用Stable Diffusion制作角色三视图
    使用StableDiffusion制作角色三视图,可以借助ControlNet功能来实现人物姿势控制,并结合LoRA模型进行精细调整。以下是一般步骤:安装StableDiffusionWebUI:建议使用最新版本,并确保已安装并正确配置ControlNet和LoRA模型。准备角色描述:用简洁明了的文字描述角色的特征......
  • (12-4-03)基于CPM中英双语多模态大模型的文生图系统:实现模型(3)基于Stable Diffusion的
    12.5.5 基于StableDiffusion的图像生成模型文件stablediffusion.py用于实现一个基于StableDiffusion的图像生成模型,此文件通过定义一个包含自动编码器、噪声调度器、UNet条件模型以及自定义转换块的SDWrapper类,支持图像的编码、添加噪声、降噪和解码过程。同时,该类还集成......
  • Stable Diffusion文生图技术详解
    StableDiffusion(SD模型),由StabilityAI与LAION等机构合作研发,是一款功能强大的生成式模型,拥有约10亿(1B)参数。其应用广泛,包括但不限于文生图(txt2img)、图生图(img2img)及图像修复(inpainting)等功能。 这张图上来就给人看晕了,这个结构其实是LatentDiffusion(StableDiffusion的前身)......