今天就给大家带来了这一款超稳定视频转动漫风格工作流。
视频转绘这么火的赛道下,老铁们怎么能不会呢。下面我们一起来看一看。
DiffSynth-Studio介绍
**项目地址:
DiffSynth Studio 是一款 Diffusion 引擎。它重构了包括 Text Encoder、UNet、VAE 等在内的架构,在增强计算性能的同时保持了与开源社区模型的兼容性。并且提供了许多有趣的功能。
到目前为止,DiffSynth Studio 支持以下模型:
CogVideo、FLUX、ExVideo、Kolors、Stable Diffusion 3、Stable Video Diffusion、Hunyuan-DiT、RIFE、ESRGAN、Ip-Adapter、AnimateDiff、ControlNet、Stable Diffusion XL、Stable Diffusion
是的你没看错,连目前很火的Flux以及CogVideoX-5b也都是支持的。
视频合成:
长视频合成:
卡通着色:
视频风格化:
图像合成:
生成高分辨率图像,突破扩散模型的限制!支持Lora 微调。
好了,关于DiffSynth-Studio就简单介绍这么多,想了解更多详细的内容请访问上面的项目地址。
接下来我们看看基于DiffSynth-Studio的视频转动漫工作流。
更多实操教程和AI绘画工具,可以扫描下方,免费获取
工作流介绍
工作流下载后导入到ComfyUI中,如果存在缺失节点,请根据提示进行缺失节点的安装,安装成功后记得重启哦。
本工作流涉及到以下模型(已将需要的模型整理到了网盘,可文末获取):
AnimateDiff、RIFE、textual_inversion、Annotators、controlnet、stable_diffusion/flat2DAnimerge_v45Sharp.safetensors
模型放置位置:
AnimateDiff、RIFE、textual_inversion放置目录:
ComfyUI\custom_nodes\ComfyUI-DiffSynth-Studio\models
Annotators、controlnet放置目录:
ComfyUI\models
stable_diffusion/flat2DAnimerge_v45Sharp.safetensors放置目录:
models/stable_diffusion/
整个工作流相对也比较简单,前半部分是需要转换视频的上传及模型、ControlNet控制节点。
后面两个节点分别是视频转绘处理Diffutoon节点和视频预览节点。在Diffutoon节点中可以调整生成视频的参数。这里通过start参数可以控制从视频的哪一秒开始着色转换,length可调整视频的生成长度。如果您的本地配置不高可以尝试降低animatediff_batch_size和animatediff_stride的值。
关于AI绘画技术储备
学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!
对于0基础小白入门:
如果你是零基础小白,想快速入门AI绘画是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案
包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!