首页 > 其他分享 >Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制

时间:2023-10-30 12:37:13浏览次数:37  
标签:Diffusion 动图 Stable 生成 图像 AnimateDiff


Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_人工智能


作者 | 小戏

单说大模型 AI 的发展对人们想象力释放的助力,基于 Stable Diffusion 模型的方法首当其冲。透过文本描述到图像生成技术,大模型为我们的想象力打开了一个恢弘的梦幻世界。透过点滴文字,就有可能重现禁锢在我们脑海中无法释放的光怪陆离

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_计算机视觉_02

而最近,Stable Diffusion 持续进化,打个响指加一个框架使用 AnimateDiff,文本图像生成便可以由静到动,一次性的将个性化文本生成的图像进行动态化,实现一键生成 GIF 动图!首先,来展示一下 AnimateDiff 的动图生成效果,当我们希望生成展示一个在客厅高兴的穿着自己新盔甲的女孩的图像时,捕捉关键词 cybergirl,smiling,armor,living room 等等,稍作修饰输入如下 Prompt:

long highlighted hair, cybergirl, futuristic silver armor suit, confident stance, high-resolution, living room, smiling, head tilted.

即可以得到一段自然逼真的动态图像:

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_自定义_03

类似的,使用 Prompt:

1 girl, anime, long pink hair, necklace, earrings, masterpiece, highly detailed, high quality, 8k

可以生成一段更加动漫风格的 GIF:

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_动漫_04

利用不同风格的模型,这些生成的动图可以是充满动漫风的卡通形象:

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_人工智能_05

也可以是更加逼真的人物造型:

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_动漫_06

可以是动漫电影的背景片段:

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_自定义_07

也可以是水墨风的艺术画卷

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_建模_08

而更有意思的,是 AnimateDiff 支持与 ControlNet 结合使用,譬如我们希望让前文生成的盔甲女孩模仿下图女孩的动作:

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_动漫_09

只需要非常简单的配置启用 ControlNet,将上图作为控制图就可以生成如下的图像,上文生成出的盔甲女孩完美的模仿了上图中女孩的动作,为自定义的动图生成添足了想象力!

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_人工智能_10

同时,通过使用 motion LoRA 方法,利用 Prompt 我们还可以控制“摄像机”的动作,譬如我们希望摄像机向左平移,即背景向右移动,可以在 Prompt 中添加 <lora:v2_lora_PanLeft:0.75 > 表示使用0.75的权重让摄像机向左平移,生成的效果如下图:

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_建模_11

此外,AnimateDiff 还支持图像到动图的生成,我们可以定义生成动图的初始图像与结束图像,从而使用 AnimateDiff 补全运动过程。从训练方式上来看,AnimateDiff 也并不复杂,在用户个性化或自定义的文本-图像生成模型(T2I)的基础上,AnimateDiff 使用短视频的剪辑数据完成了一个运动建模模块的训练,类似一个插件,AnimateDiff 通过在 T2I 模型使用基础上嵌入这个运动建模模块,从而使得图像成功“由静转动”

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_计算机视觉_12

毋庸置疑,单一静态的图像表达能力存在上限,而 AnimateDiff 点石成金般赋予图像“动起来”的能力,极大的扩展了我们简单的输入文本的表达能力。从抽象的语言文字到具象的图片再到细节更加丰富的动图(视频),Stable Diffusion 逐步进化高速发展。走到 AnimateDiff,恰如国外的一则新闻所述:很有可能,AnimateDiff 会重新定义整个动画行业!

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_自定义_13

Stable Diffusion新玩法火了!给几个词就能生成动图,连动图人物的表情和动作都能随意控制_动漫_14

标签:Diffusion,动图,Stable,生成,图像,AnimateDiff
From: https://blog.51cto.com/xixiaoyao/8087419

相关文章

  • starUML用例图与活动图绘制及实例
    一.用例图1.starUML建立方法:工程区-->选择model右键-->选择AddDiagram中的UseCaseDiagram-->重命名该用例图 2.用例图四大组成:•参与者(Actor):是指外部用户或实体在系统中所扮演的角色(Role)。•用例:参与者在系统中执行的一个相关的动作序列,系统通过执行这一组动作序列为......
  • 用 python-docx 创建浮动图片
    相信大家对python-docx这个常用的操作docx文档的库都不陌生,它支持以内联形状(InlineShape)的形式插入图片,即图片和文本之间没有重叠,遵循流动版式(flowlayout)。但是,截至最新的0.8.10版本,python-docx尚不支持插入浮动图片(floatingpicture)。这显然不能满足丰富多彩的文档样式的需要,因......
  • diffusion扩散模型\datawhale组队学习——v3先运行一半(下)
    微调:好像是用新数据训练旧模型的管道。微调的参数有:图形大小:image_size数据批次:batch_size为减轻显卡压力,将数据批次再切分为2(n)倍,num_epochs相对应的,权重更新频率也乘2(n)倍,grad_accumulation_steps总感觉对模型影响不大捏?难道是为了加大图形质量和效果,就相应地延长训练时......
  • 简单有效!Direct Inversion: 三行代码提升基于Diffusion的图像编辑效果
    前言 本文介绍了由香港中文大学和粤港澳大湾区数字经济院联合提出的基于Diffusion的Inversion方法DirectInversion,可以在现有编辑算法上即插即用,无痛提点。本文转载自PaperWeekly作者:KK仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术......
  • [数据分析与可视化] 基于Python绘制简单动图
    动画是一种高效的可视化工具,能够提升用户的吸引力和视觉体验,有助于以富有意义的方式呈现数据可视化。本文的主要介绍在Python中两种简单制作动图的方法。其中一种方法是使用matplotlib的Animations模块绘制动图,另一种方法是基于Pillow生成GIF动图。目录1Animations模块1.1FuncA......
  • 使用 DDPO 在 TRL 中微调 Stable Diffusion 模型
    引言扩散模型(如DALL-E2、StableDiffusion)是一类文生图模型,在生成图像(尤其是有照片级真实感的图像)方面取得了广泛成功。然而,这些模型生成的图像可能并不总是符合人类偏好或人类意图。因此出现了对齐问题,即如何确保模型的输出与人类偏好(如“质感”)一致,或者与那种难......
  • diffusion扩散模型\datawhale组队学习——v3先运行一半
    今天我们一起学习如何对模型微调和引导。微调,用原模型,跑新数据,得到新输出。引导,引导生成过程,改变输出结果。 作者之前用过sd模型,不同的采样方法在不同的采样步数下有不同的效果。首先采样步数并非越高越好或越低越好,有一个最佳使用区间,其次,不同采样方法有自己不同的最佳采样......
  • diffusion扩散模型\datawhale组队学习——v2-抄别人代码还要矫情一下
    如果想学diffusion,又没有买纸质书咋办捏?datawhale为我们提供了大佬的中文笔记!学习来源:https://relph1119.github.io/my-team-learning/#/diffusion_models_learning51/ch03/ch03 甚至比看github的代码还方便。但是又不得不矫情一下,跟着做还有点问题。(小弟就不放大佬的笔记......
  • 项目活动图
                       ......
  • prompt提示工程/diffusion扩散模型/datawhale组队学习///day1 看直播
    今日学习来源【纯干货】提示工程(PromptEngineering)-AI编程新范式_哔哩哔哩_bilibili 抄一下评论区的课代表: -0:00......