代码编织梦想

最近 animatediff 升级了 2.0 版本,相较于 1.0 版本呢,只能用一个字来形容,就是:秀。

这一版主要插件新增支持了三个功能:Lora、ControlNet 和 Prompt travel。

Lora,官方更新了 8 个运动模型 Lora,让我们可以自由控制动画画面的走向。

ControlNet,小伙伴们都知道 ControlNet 善于控制,这个运用到动画上又能擦出怎么的火花呢?

Prompt travel,可以在提示词中指定第几帧指定什么动作或者画面,我们可以通过提示词来动态控制我们的动画啦。

具体效果如何,我们直接开整。

首先呢,我们先来下载模型和官方提供的 Lora 模型。

需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

2f868a0dd64be3e9fe0ed43c7a130f8d.png

下载所有模型。

img

mm 开头的模型放入以下目录:

\sd-webui-aki-v4.1\extensions\sd-webui-animatediff\model

img

v2 开头的模型放入以下目录:

\sd-webui-aki-v4.1\models\Lora

img

我们可以看到官方提供了 8 个 Lora,这些 Lora 具体有啥作用呢,看 Lora 的命名,我们应该可以猜出一些,这些 Lora 是运动模型,可以通过添加对应的 Lora 来使我们生成的动画向上向下、向左向右、拉远拉近、顺时针逆时针运动。

模型放置好以后,我们来看下配置参数:

**动画模型:**选最新的 V2 版本就可以了。

总帧数:动画总共包括的画面数量。

帧率:每秒多少帧。如果总帧数设置为16,帧率设置为8,则单个动画的播放时长为2秒。

显示循环数量:循环播放几次,0 代表一直重复播放。

闭环:勾选此选项,则动画的第一帧和最后一帧形成循环。

上下文单批数:和总帧数保存一致即可。

保存:可以选择输出动画的格式,可以多选。

其他参数默认即可。

img

好了,我们先来实现一个最基础的动画。

1girl,night city,rain,coat,hands in pockets,best quality,masterpiece,HDR,UHD,8K,Highly detailed,simple background,
Negative prompt: (worst quality:1.6),(low quality:1.6),EasyNegative,
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 601405023, Size: 512x512, Model hash: 876b4c7ba5, Model: cetusMix_Whalefall2, VAE hash: 63aeecb90f, VAE: vae-ft-mse-840000-ema-pruned.safetensors, Clip skip: 2, Version: v1.6.0

动图封面

然后,我们再添加一个镜头往左移动的 Lora「lora:v2_lora_PanLeft:0.8」,可以看到画面往左移动的幅度还是蛮大的,移动的幅度,我们可以通过调整 Lora 的权重来实现。权重越高,移动幅度越大。

1girl,night city,rain,coat,hands in pockets,best quality,masterpiece,HDR,UHD,8K,Highly detailed,simple background,lora:v2_lora_PanLeft:0.8,
Negative prompt: (worst quality:1.6),(low quality:1.6),EasyNegative,
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 601405027, Size: 512x512, Model hash: 876b4c7ba5, Model: cetusMix_Whalefall2, VAE hash: 63aeecb90f, VAE: vae-ft-mse-840000-ema-pruned.safetensors, Clip skip: 2, Lora hashes: “v2_lora_PanLeft: ed79025f8bea”, TI hashes: “EasyNegative: c74b4e810b03”, Version: v1.6.0

动图封面

Lora 的用法讲完了,我们来讲讲怎么通过提示词来控制人物的动作,这个功能的名字叫做「Prompt travel 」,前提是你的 SD 安装了 ControlNet 哈,这个功能需要安装 ControlNet 才能使用。

1girl,best quality,masterpiece,realistic,close-up,simple background,
0: smile
2: open eyes
3: (closed eyes:1.2)
5: open eyes

首先是正常我们描述人物的提示词,然后在不同的帧数,指定不同的动作,如果我们总帧数只有 8 帧,那提示词里最大只能写 7 哦,0 对应第一帧,7 对应第八帧,依次类推,要不然会报错,记得冒号后边要有空格哦「如果不生效的话,应该是插件之间冲突了,把除 animatediff 和 ControlNet 之外的插件禁用试试,然后再一个个勾选回来看看」。

动图封面

最后,我们来看看结合 ControlNet 怎么使用嘞。

以 Canny 举例,我们先在文生图的 Canny 上传一张图片,生成新的图片,然后把图片发送到图生图。

img

图片发送到图生图以后,我们在文生图中生成的图片就会作为动画的第一帧。

img

然后我们继续来到 ControlNet 中选择 Canny,同样上传我们的底图,启用 ControlNet,然后再把我们的底图上传到 animatediff 插件如图红框的位子,作为我们动画的最后一帧,然后启用 animatediff 插件,生成。

img

我们来看下效果,我们只需要管第一帧,后最后一帧,剩下的交给 animatediff 就可以了。

动图封面

如果在图上图中没有启用 ControlNet 的 Canny 模型,出来的动画是这样的,animatediff 发挥的更多一些,但是感觉也挺有意思的,但是用 ControlNet 就是为了更可控嘛,对吧!

动图封面

按着上边的操作,听雨又做了一个 LOGO 的动画,感觉用来做动态的 LOGO 会很有意思啊!

动图封面

这里听雨只介绍了 Canny 一个模型哦,其他的 ControlNet 模型根据它本身的特性结合 animatediff 又能产生咋样的有趣的动画嘞!小伙伴们还不玩起来!

哦,最后这里还需要说一下,如果我们总帧数设置太高,比如动画时长变成 2 秒,3 秒的时候,动画的前一秒和后一秒可能就切画面没有关联性了。

遇到这种情况,小伙伴们可以勾选如下图红框中的选项,这样画面就会连续了。

img

好了,今天听雨就分享到这里喽!小伙伴们赶紧去试试吧!

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

2f868a0dd64be3e9fe0ed43c7a130f8d.png
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/m0_59162248/article/details/139435497

animatediff animate your personalized text-to-image diffusion models without specific tuning 机器翻译-爱代码爱编程

摘要 随着文本到图像模型(如稳定扩散[22])以及相应的个性化技术(如 DreamBooth [24] 和 LoRA [13])的发展,每个人都能以低廉的成本将自己的想象力转化为高质量的图像。因此,人们对图像动画技术提出了

animatediff论文解读-爱代码爱编程

文章目录 1. 摘要2. 引言3. 算法3.1 Preliminaries3.2. Personalized Animation3.3 Motion Modeling Module 4. 实验5.限制6.

这个机器人有点厉害,能够把图片动起来#animatediff-爱代码爱编程

我们先来看看效果: 效果还不错,可以给每一张图片都生成视频了。 基本的原理是什么呢?官方的解释有点深奥,我们换一种方式理解下此项技术: Shadow是一位小朋友,他喜欢玩积木。有时候,他用积木搭建了一个静态的建筑,但是觉得有些无聊,想让它动起来。 于是,他想到了一个好方法,就是给他的积木加上一个小机器人,让它们动起来

animatediff搭配stable diffution制作ai视频-爱代码爱编程

话不多说,先看视频  1. AnimateDiff的技术原理 AnimateDiff可以搭配扩散模型算法(Stable Diffusion)来生成高质量的动态视频,其中动态模型(Motion Models)用来实时跟踪人物的动作以及画面的改变。我们使用 AnimaeDiff 实现时间一致性,使用Control

【animatediff】命令详解_realisticvisionv51 百度云盘-爱代码爱编程

安装: https://huggingface.co/guoyww/animatediff/blob/main/mm_sd_v15_v2.ckpt https://github.com/continue-revolution/sd-webui-animatediff 命令解释: 模型:@真人模型\realisticVisionV51_v51V

[comfyui进阶教程] comfyui-爱代码爱编程

AnimateDiff是什么 AnimateDiff 是一个能够将个性化的文本转换为图像的扩展模型,它可以在无需特定调整的情况下实现动画效果。通过这个项目,用户可以将他们的想象力以高质量图像的形式展现出来,同时以合理的成本实现这一目标。随着文本到图象模型(例如,Stable Diffusion)和相应的个性化技术(例如,LORA和DreamBoo

【aigc】animatediff:无需定制化微调的动画化个性化的文生图模型-爱代码爱编程

 前言 Animatediff是一个有效的框架将文本到图像模型扩展到动画生成器中,无需针对特定模型进行调整。只要在大型视频数据集中学习到运动先验知识。AnimateDiff就可以插入到个性化的文生图模型中,与Civitai和Huggingface的文生图模型兼容,也可以与自己微调的大模型兼容。 摘要   随着文本到图像模型(例如,Stable D

还不知道sd如何生成动画视频?快来试试animatediff 插件生成视频_sd 安装animated-爱代码爱编程

今天和大家介绍一款SD动画插件“AnimateDiff”,这是一款可以在stable diffusion中制作稳定gif动图的插件,通过AnimateDiff这款插件,直接通过文生图的形式就可以生成gif动图,而且从最终出图

tooncrafter -爱代码爱编程

动画制作对很多人来说应该都是一项非常专业且复杂的工作,需要学习专门的知识,掌握特定的工具,并且投入大量的时间精力才能得到成果,不过最近出现的一款 AI 动画制作工具 ToonCrafter 则有希望改变这一现状。它只需 2 张图像就生成连贯流畅的动画片段,还能自动为动画片段上色,这不仅能帮助专业动画人员提升工作效率,也能让小白轻松制作出稳定的动画