✨ 1: Mora
利用多智能体合作生成视频任务的多智能体框架
Mora 是一种多智能体框架,专为通用视频生成任务设计。它通过多个视觉智能体的协作,实现了在多种视频生成任务中的高质量输出,旨在复制并扩展 OpenAI Sora 的能力。以下是通俗语言总结的 Mora 功能以及可能的使用情景:
地址:https://github.com/lichao-sun/Mora
✨ 2: Animagine XL 3.1
基于稳定扩散生成高质量动漫风格图像的文本到图像模型
Animagine XL 3.1是Animagine XL V3系列的更新版本,对之前的版本Animagine XL 3.0进行了改进。这是一个开源的、以动漫主题为基础的文本转图像模型,用于生成更高质量的动漫风格图片。该模型包括更广泛的来自知名动漫系列的角色,经过优化的数据集,以及为更好地创建图像而新增的新的美学标签。Animagine XL 3.1建立在Stable Diffusion XL的基础上,旨在为动漫粉丝、艺术家和内容创作者提供准确和详细的动漫角色表现,是一个有价值的资源。
地址:https://huggingface.co/cagliostrolab/animagine-xl-3.1
✨ 3: AnimateDiff-Lightning
字节跳动文本到视频的快速生成模型
AnimateDiff-Lightning是一个快速的文本到视频生成模型,比原始的AnimateDiff快十倍以上。该模型是通过交叉模型扩散蒸馏技术生成的。除了提供研究论文《AnimateDiff-Lightning: Cross-Model Diffusion Distillation》外,还将该模型作为研究的一部分发布。该模型是从AnimateDiff SD1.5 v2中提炼而来。其中包含了1步、2步、4步和8步的提炼模型的检查点。2步、4步和8步的生成质量非常好。1步模型仅供研究目的使用。AnimateDiff-Lightning在与风格化基础模型一起使用时效果最佳。建议使用Realistic、Anime & Cartoon等风格化基础模型。此外,可以尝试不同的设置,如在2步模型上使用3个推理步骤可以产生很好的结果。某些基础模型与CFG一起使用可以产生更好的结果。推荐使用Motion LoRAs,因为它们产生更强的动作效果。使用强度为0.7~0.8的Motion LoRAs可以避免水印。
地址:https://huggingface.co/ByteDance/AnimateDiff-Lightning
✨ 4: Freepik Reimagine
通过上传图片,用户可以调整年龄、眼睛颜色、头发颜色或服装等各种细节,实现定制化和独特的效果
Freepik Reimagine是一种新的AI图像生成工具,旨在革新内容创作领域。它利用AI技术,让用户上传一张图片后立即获得独特的提示,用户可以轻松地与图片互动并进行修改。这一工具具有实时功能、无限提示滚动功能和预定义风格,加快了创意过程,让用户可以从修改细节到设计完全重新构思的图像等各种可能性。通过上传图片,用户可以调整年龄、眼睛颜色、头发颜色或服装等各种细节,实现定制化和独特的效果。
地址:https://www.freepik.com/pikaso/reimagine
更多AI工具,参考国内AiBard123,Github-AiBard123
标签:XL,模型,生成,动漫,AnimateDiff,图像,文本 From: https://blog.csdn.net/weixin_40425640/article/details/136905816