首页 > 其他分享 >【Stable Diffusion零基础指南】图生图轻松生成属于你的艺术作品!

【Stable Diffusion零基础指南】图生图轻松生成属于你的艺术作品!

时间:2024-12-23 11:29:26浏览次数:6  
标签:Diffusion 图生 幅度 生成 Stable 重绘 输入 图片

在 AI 生成图像领域,Stable Diffusion 的 Img2Img 模式为我们带来了一个强大的工具:通过输入一张现有图片,结合你的提示词和参数,生成风格独特、创意十足的新图片!无论是将简单的草图变成艺术杰作,还是给照片注入独特风格,Img2Img 都能助你实现创意梦想。

本教程将手把手教你从零开始使用 Stable Diffusion 的图生图功能,带你了解其核心概念、参数设置以及最佳实践!

0

1

什么是图生图?

Img2Img(图生图)是 Stable Diffusion 的一种生成模式,它的核心功能是:

  • 输入图片 + 提示词 = 新图片。

  • 它会根据输入图片的形状、纹理或其他特征,并结合提示词和参数生成全新的图像。

特点:

  • 保留原图形状或布局,但风格和细节由提示词和参数决定。

  • 适用于风格转换、图片改造和快速创作。

例如:

  • 将手绘草图转化为完整插画。

  • 将普通照片变成赛博朋克风格的艺术作品。

这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述

0

2

图生图的基本步骤

第一步:打开 Stable Diffusuion WebUI,点击 Img2Img 标签,进入到图生图模块。

第二步:准备一张照片,将照片导入到 SD 里。往 WebUI 里导入图片的方式有两种:一是直接拖拽到对应的位置松手,二则是鼠标左键点击图片上传区域再打开资源管理器选取。

第三步:参数设置。图生图的参数大部分和文生图是完全一致的,比如采样方法、步数等。但也有一些独有的选项,最为醒目的是 Denoising strength(重绘幅度),我们将在下面的文章中详细讲解这些参数。

0

3

参数:缩放模式

1. Just Resize(仅缩放):

  • 功能:直接将输入图片拉伸或压缩至目标分辨率,不保留原始宽高比例。

  • 优点:确保输入图片完全覆盖目标尺寸。

  • 缺点:可能导致图像变形(比例失真)。

  • 适用场景:当不介意图像比例失真,只需生成特定分辨率的结果时。

2. Crop and Resize (裁剪并缩放)

  • 功能:先按目标分辨率的宽高比裁剪输入图片,然后将裁剪后的图片等比例缩放至目标尺寸。

  • 优点:保持图像比例,避免变形。

  • 缺点:输入图片的一部分可能被裁掉,可能导致丢失细节。

  • 适用场景:当需要保留输入图片的正确比例,且不介意部分内容被裁剪时。

3. Resize and Fill (缩放并填充)

  • 功能:将输入图片等比例缩放到目标分辨率,同时在剩余区域填充空白(通常是黑色或透明的填充)。

  • 优点:保持图像比例,避免内容裁剪和变形。

  • 缺点:生成的图片可能包含填充的边框。

  • 适用场景:当需要保留输入图片的完整内容,且不介意边缘填充时。

0

4

参数:重绘幅度

在 Stable Diffusion WebUI 的 Img2Img 功能中,重绘幅度(Denoising Strength)是一个非常重要的参数,用于控制生成的新图像与输入图像之间的差异程度。它直接影响最终生成结果的细节保留和创意改动程度。

重绘幅度的作用:

  • 重绘幅度决定了模型在生成过程中对输入图片的“重建”程度。

  • 低重绘幅度:生成的图片会保留更多的原始图片细节,改动较少。

  • 高重绘幅度:生成的图片会与原始图片差别更大,更倾向于按照提示词生成新的内容。

使用场景:

1. 修图(低重绘幅度,0.1-0.3)
当需要在输入图片的基础上修复或调整一些细节时(比如增加清晰度或调整颜色),可以使用低重绘幅度。

  1. 风格化改造(中等重绘幅度,0.4-0.7)

如果希望保留输入图片的基本结构,同时应用提示词改变风格(例如从现实风格转换为油画风格),可以使用中等重绘幅度。

3. 完全重绘(高重绘幅度,0.8-1.0)
当只想利用输入图片的大致布局,并完全按照提示词生成新的内容时,可以使用高重绘幅度。

注意事项:

1.平衡输入图片与提示词: 重绘幅度越高,提示词的作用越大;重绘幅度越低,输入图片的作用越大。找到合适的平衡点非常重要。

2.生成时间:重绘幅度较高时,模型需要进行更多的计算,可能导致生成时间稍长。

3.避免失真: 如果重绘幅度过高,可能会导致结果与预期差异过大;过低则可能导致输入图片几乎没有变化。

在 Stable Diffusion WebUI 的 Img2Img 功能中,重绘幅度(Denoising Strength)是一个非常重要的参数,用于控制生成的新图像与输入图像之间的差异程度。它直接影响最终生成结果的细节保留和创意改动程度。

0

5

随机种子

在 Stable Diffusion 中,随机种子(Seed)是一个非常重要的参数,用于控制生成图片的随机性和可重复性。

什么是随机种子?

随机种子是生成随机数的起点,通常是一个整数值。Stable Diffusion 使用随机数来初始化潜空间中的噪声图像,而这张噪声图像是生成最终图片的起点。

随机种子的作用:

  • 相同的种子值和其他参数(如提示词、分辨率、模型权重)都相同的情况下,生成的图片结果是完全一致的。

  • 不同的种子值会产生不同的初始噪声,因此会生成完全不同的图片。

所以,想在已经生成图片的基础上,继续个性化绘制,固定随机种子十分重要。

0

6

实战环节

首先,我们上传一张图片,输入相应的提示词和参数设置。

在这里插入图片描述

图 参数截图1

在这里插入图片描述

图 参数截图2

点击 Generate 生成按钮,我们得到如下图像:

在这里插入图片描述

图 生成结果

下面我们点击按钮固定随机种子:

在这里插入图片描述

图 固定随机种子

添加新的提示词:red_shirt。

在这里插入图片描述

图 添加提示词

再次点击 Generate 生成按钮,就可以在原来图片的基础上生成新的图片了。

在这里插入图片描述

图 最终效果

END

希望这篇教程可以帮你快速掌握 Stable Diffusion Img2Img 的使用技巧!如果有更多问题或需要补充内容,可以随时告诉我!如果你对今天的内容有任何疑问,或者在操作过程中遇到问题,欢迎留言与我互动!别忘了分享这篇文章给你身边的朋友们,让我们一起在AI创作的世界中不断探索!

这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述

标签:Diffusion,图生,幅度,生成,Stable,重绘,输入,图片
From: https://blog.csdn.net/ice829/article/details/144661302

相关文章

  • 深度解析丨StableDiffusion如何实现模特精准换装以及如何替换模特
    大家好这里是阿道夫!!一、前言来了来了,之前给大家承诺的模特换装教程它来了!本篇教程主要运用StableDiffusion这个工具来进行操作,下面会通过几个小案例,给大家展示不同需求下,我们该如何使用StableDiffusion来辅助我们完成服装效果展示。本教程适用于电商设计场景、摄影场景等......
  • 从0到1实现你自己的Stablediffusion应用
    大家好,这里是阿道夫!!StableDiffusion简介StableDiffusion是一种基于深度学习的图像生成技术,它属于生成对抗网络(GAN)的一种。这种技术通过训练神经网络来生成逼真的图像,并且能够根据输入的文本描述来创建相应的视觉内容。以下是StableDiffusion的一些关键特点:1)文本到图......
  • llama.cpp:Android端测试 MobileVLM -- Android端手机部署图生文大模型
    llama.cpp:Android端测试MobileVLM1.环境需要2.构建项目3.Android测试1.环境需要以下是经实验验证可行的环境参考,也可尝试其他版本。(1)PC:Ubuntu22.04.4(2)硬件设备:Android手机(3)软件环境:如下表所示工具版本安装Anaconda2021.05参考:Anaconda3安装及使用cmake3.26.......
  • 【stable diffusion】ComfyUI 使用 LoRA 极简工作流
    ComfyUI的LoRA工作流相信大家都不陌生。开发者提供了大量基于默认节点功能搭建的工作流,其中就包括了如何使用LoRA。仅仅使用一个LoRA也许还比较简单。只需要在基本工作流的基础上,再添加一个LoRA加载器的节点即可。如果要添加多个LoRA,就需要往里面继续加入LoRA加载器。这使得工......
  • 【Stable Diffusion】SD迎来动画革命,AnimateDiff快速出图
    如果放在几年前,你告诉我说只需一分钟就能做出一段这样的动画,我是万万不相信的,但是当AI时代来临之后,一切都有了可能。今天给大家介绍一个可以快速在sd中生成动画的方法,就是一个叫做AnimateDiff的免费开源项目。现在已经整合到了webUI上面,使用起来非常方便。注意:(如果大家不......
  • 【stable diffusion原理】一文带你解读AIGC的基础StableDiffusion!
    前言StableDiffusion是一种基于扩散模型的生成式人工智能技术,由StabilityAI等团队开发。它能够根据输入的文本描述生成高质量的图像。StableDiffusion采用了潜在扩散模型(LatentDiffusionModels,LDMs),通过在潜在空间中进行操作,提高了计算效率和生成图像的质量。Sta......
  • 【StableDiffusion教程】超惊艳的设计辅助神器!
    最近使用新版SD对一些图像进行了细化测试,获得了一些非常感人的效果:这份完整版的AI绘画全套学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】可以看到不管是人像、场景、线稿、草图、场景原画、场景编辑,都可以提供一......
  • 【StableDiffusion教程】真人漫改实现可商用效果的真人漫改制作教程
    所谓真人漫改,就是把一张真人的图片生成一张新的[二次元]的图片。在AI绘画中,这是一个非常常见的应用场景。关于真人漫改在之前进阶篇系列中分享过好几种制作方式,但是实现方式都比较简单,真人与对应的二次元效果图片不管是人物服装、背景元素、画面颜色等很难达到一致,今天分享......
  • KubeHound:开源流量攻击图生成工具
    在云计算时代,Kubernetes已成为容器编排的事实标准。然而,随着其普及,Kubernetes集群的安全性问题也日益凸显。为了应对这一挑战,DataDog推出了KubeHound,一个创新的开源工具,旨在通过生成攻击图来增强Kubernetes集群的安全性。项目地址见文末。项目理念KubeHound是一个专为......
  • 全网最全,保姆级Stable Diffusion入门使用教程(附模型下载使用说明)
    一、出图的基本操作在出图之前,我们先来了解一下SD操作界面常用的一些功能1、模型选择:选择合适的大模型2、文生图:通过输入提示词,让AI生成图片3、图生图:在已经输入文字指令的基础上,通过一张参考图片,让AI根据提示词生成类似的效果。4、附加功能:提高生成图片的分辨率......