首页 > 其他分享 >Stable Diffusion【进阶篇】:真人漫改之图生图实现

Stable Diffusion【进阶篇】:真人漫改之图生图实现

时间:2024-07-18 14:00:54浏览次数:16  
标签:Diffusion 生图 真人 图生 模型 AIGC 进阶篇 漫改 图片

所谓真人漫改,就是把一张真人的图片生成一张新的二次元的图片,在Stable Diffusion中,有很多方式实现,其中通过图生图的方式是最常用的方式,大概1-3分钟就可以完成。本文我们系统的讲解一下。

在这里插入图片描述

下面我们来详细看一下图生图实现真人漫改的具体实现方式。

【第一步】:图生图图片上传以及相关参数设置

在图生图功能菜单界面,我们选择【图生图】上传一张我们需要漫改的真人照片。

下面进行相关参数设置。

  • 采样器:DPM++2M Karras

  • 采样迭代步数:30

  • 图片宽高:保持和上传的图片宽高一致或者定比例的放大或者缩小。

  • 重绘强度:建议设置在0.45-0.65之间,这个参数值并不是固定的,在实际使用过程中可以多尝试不同的重绘强度值,这里可以使用脚本插件的方式一次生成不同重绘强度值的多张图片。(重绘强度是图生图最重要的一个参数设置,用于控制生成的图片和原来的图片的相似度有多大。它的取值范围为0-1,默认值0.75。值越小,和原来的图片相似度越高,AI自由发挥的空间也越小。值越大,和原来的图片相似度越低,AI自由发挥的空间也越大)。

【第二步】提示词的编写

如果我们知道上传图片的提示词,可以直接将图片的提示词复制过来。

如果我们不知道上传图片的提示词,可以使用Tagger插件的方式获取,因为生成提示词效果较好。

通过Tagger插件获取的提示词为:

1girl, solo, long hair, jewelry, necklace, brown hair, chalkboard, looking at viewer, window, realistic, black eyes, lips, classroom, indoors, upper body, white dress, dress

因为我们需要真人漫改生成对应的二次元图片,我们要检查一下提示词,建议使用翻译软件把提示词翻译出来详细检查一遍,把不符合要求的提示词去掉,比如这里提示词realistic(逼真)就需要拿掉。

最终的提示词:

1girl, solo, long hair, jewelry, necklace, brown hair, chalkboard, looking at viewer, window, black eyes, lips, classroom, indoors, upper body, white dress,dress(女孩,solo,长发,珠宝,项链,棕色头发,黑板,看着观众,窗户,黑眼睛,嘴唇,教室,室内,上身,白色连衣裙,连衣裙)

【第三步】大模型的选择以及图片的生成

真人漫改需要生成二次元的图片,所以大模型需要选择二次元的大模型。

这里我们选择不同的二次元大模型来看一下效果。

原图

大模型:Anything v5 Prt

大模型:Counterfeit V3.0

大模型:Cetus-Mix Coda2

大模型:MeinaUnreal V3

关于真人漫改的图生图实现方式大家按照上面的操作步骤实现即可。

相关说明:

(1)在上面的真人漫改中,如果美女带有首饰等,漫改图片中变化还是比较大。一般真人漫改主要的关注点还是人,我们可以在提示词中将首饰等关键词去掉,当然这个还是要根据实际情况而定。

(2)真人漫改,大模型一定要选择二次元的大模型,但是可供选择的还是比较多的,大家可以根据自己的需求选择,在之前的文章中给大家详细介绍过常用的10几种动漫大模型。

(3)漫改后的图片一般效果并不是很理想,大家需要后期进行处理,最直接的方式是借助SD Web UI的后期处理功能。其中缩放比例设置为4,缩放算法选择:R-ESRGAN_4x+ Anime6B。

我们看一下未进行和进行过后期处理后图片的效果差异。(左边图片是未处理的,右边图片是经过后期处理的)

在这里插入图片描述

在本文中,最终生成的图片我都采用了后期处理。

好了,今天的分享就到这里了,关于真人漫改还有一些其他的实现方式,后面我们会继续分享,希望今天分享的内容对大家有所帮助。

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除

标签:Diffusion,生图,真人,图生,模型,AIGC,进阶篇,漫改,图片
From: https://blog.csdn.net/2401_85116933/article/details/140517281

相关文章

  • stable diffusion教程:固定同套衣服,一秒快速换脸
    哈喽今天教大家用sd,做封面上的圣斗士女郎。文章使用的AI工具SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,无需自行查找,有需要的小伙伴下方扫码自行获取。昨天一位网友私信我,让我用这张圣斗士铠甲,画几个美女壁纸。特别强调铠甲不能变。......
  • AI绘画Stable Diffusion常用插件合集
    StableDiffusion常用插件,我已经给大家整理好了,下方扫码自取就好。拥有这些SD常用插件,让您的图像生成和编辑过程更加强大、直观、多样化。以下插件集成了一系列增强功能,覆盖从自动补全提示词到高分辨率图像放大,从双语界面到无边图像浏览,为用户提供了无缝的StableDiffusi......
  • AI绘画小白福音!Stable Diffusion 保姆级教程
    大家好,今天,我们就来进行AI绘画的文生图实战。(文末附籽料)unsetunset文生图实战unsetunset模型安装后之后,就可以开始激动人心的AI文生图了,下面我们以文生图为例,一边操作一边讲解提示词的语法和分类,以及出图参数的作用和使用方法。在开始之前,我们再来回顾一下,我们的需求......
  • Stable Diffusion【进阶篇】:真人漫改之IP-Adapter实现
    大家好,今天我分享真人漫改实现方式:借助ControlNet的IP-Adapter控制模型,IP-Adapter控制模型是由腾讯研究院出品的一个新的ControlNet模型,关于该模型可以理解为图片提示词,类似于MD垫图的效果,但是比tagger标签器提取出图片的元素构成效果更好。它不仅参考图片的风格、光影特效......
  • Stable Diffusion ControlNet垫图:IP-Adapter实现图片风格迁移
    IP-Adapter实现的SD垫图功能对我们的图片处理非常有用,后面我们会进行一系列IP-Adapter的应用分享,通过具体的实例真正看到IP-Adapter的强大。文章使用的AI工具SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,无需自行查找,有需要的小伙伴下方扫......
  • Stable Diffusion|IP-Adapter 图片风格迁移
    文末扫码可获取IP-Adapter插件!前段时间腾讯发布了一个新的ControlNet模型叫“IP-Adapter”,它的作用就是把上传的图像转化为图像提示词,简单的来说就是跟Midjourney的垫图功能差不多。IP-Adapter能够精准地识别参考图的风格特征,并且可以很好的适配其他的模型以及ControlNet......
  • Stable Diffusion——涂鸦幻变:稳态扩散下的艺术重生
    目录引言操作过程图片准备创建蒙版图生图优化设置参数细节调整总结引言在深入体验了StableDiffusion图生图的无限魅力之后,我们不禁为其强大的图像修复和细节丰富能力所折服。然而,在实际应用中,许多用户发现难以精准掌控最终效果的丰富度和细节层次,以达到心中理想......
  • 三大图生图模型sd-refiner,sd-variations,pix2pix部署
    三大图生图模型sd-refiner,sd-variations,pix2pix部署模型下载地址及前后端代码地址:pylzzz.online效果图:相似图(sd-variations模型)细化图(sd-refiner):衍生图(pix2pix)......
  • Stable Diffusion新手快速入门教程
    关于Ai绘画,很多人在体验了Midjourney(以下简称MJ)之后,发现它创意能力很强,但可控性比较弱,不便应用,于是转向StableDiffussion(以下简称SD),但又发现SD貌似很复杂。我在后台收得比较多的留言,都是一些很基础的问题咨询,这是这篇文章的写作背景。Ai绘画的算法工具,如果要做一个不一定......
  • Stable Diffusion 模型推荐,干货满满,建议收藏!
    最近有很多小伙伴说,刚接触StableDiffusion想尝试AI绘图,但是打开C站面对这么多的模型不知道从何下手,而且模型内存还不小,外网下载速度也慢,一旦选择的模型不符合需求,就需要重新挑选和下载,折腾着一天的时间就过去了,不但丹没炼成,购买的梯子套餐反而没了。那么接下来,我将通过自......