这里是黑石宇的频道,第一期高级教程!

学习颠覆性的免费 AI 视觉特效工作流,

仅使用一张参考图像与 ComfyUI 中的 Wan 2.1. VACE,即可更换任何背景。

视频教程链接

B站链接:https://www.bilibili.com/video/BV18v2QBVEe3/

油管链接:https://youtu.be/CnZDV4u_7Ow

部分效果预览

robot3_1280x720_16fps.gif

robot_01_combine.gif

horse_16fps.gif

AnimateDiff_00816.gif

户外逃跑_16fps.gif

逃亡原图.gif

↓↓↓ 工作流和素材文件在文章最下方 ↓↓↓

工作流

顺序依然为从左到右,一共9个部分,有一定难度,需要反复多听多操作,掌握后,基本不会再有搞不定的工作流!

1-gVfl.png

模型下载

1、Wan2_1-T2V-14B_fp8_e5m2.safetensors:

https://huggingface.co/Kijai/WanVideo_comfy/blob/main/Wan2_1-T2V-14B_fp8_e5m2.safetensors

📁 ComfyUI/models/diffusion_models

2、Wan21_T2V_14B_lightx2v_cfg_step_distill_lora_rank32.safetensors:

https://huggingface.co/Kijai/WanVideo_comfy/blob/main/Wan21_T2V_14B_lightx2v_cfg_step_distill_lora_rank32.safetensors

📁 ComfyUI/models/loras

3、Wan2_1-VACE_module_14B_fp8_e4m3fn.safetensors:

https://huggingface.co/Kijai/WanVideo_comfy/blob/main/Wan2_1-VACE_module_14B_fp8_e4m3fn.safetensors

📁 ComfyUI/models/diffusion_models

4、umt5-xxl-enc-bf16.safetensors:

https://huggingface.co/Kijai/WanVideo_comfy/blob/main/umt5-xxl-enc-bf16.safetensors

📁 ComfyUI/models/text_encoders

5、Wan2_1_VAE_bf16.safetensors:

https://huggingface.co/Kijai/WanVideo_comfy/blob/main/Wan2_1_VAE_bf16.safetensors

📁 ComfyUI/models/vae

一、模型加载

第一步中选择对应的模型,不要选错!

此外,如果你是16或者12G以下的显存blocks_to_swap设置为40,新版本插件可以设置为48,如图!

vace_blocks_to_swap设置为15

这两个参数的值越大生成速度就越慢,但占用的显存会越低。

10.png

二、选择分辨率

工作流提供三种预设分辨率设置。

默认选择576p,因为它在质量、生成时间和出色的动画效果之间取得了良好的平衡。

16GB或以下最大支持到576P,8G显存建议选择3,也就是504p。

2.png

三、生成核心素材

在这一步中,可以将你实拍的素材,进行处理,生成vace模型所需要的三个参数!

  1. 灰色背景 + 主体 的视频

  2. 黑白通道视频 (主体是白色、背景黑色)

  3. 镜头运镜追踪视频 (红色边框的正方形就是追踪点)

(1和2两个视频是vace模型需要的参数,通过他们vace模型就会知道哪些区域需要进行重绘)

(3是给vace的控制图像参数,它可以让模型知道镜头的运动轨迹)

这就是我们创作需要的三个必要元素!

创建运镜轨迹我们使用了CoTraker节点

生成追踪点个数就是这个max num of points,这里值不是越大越好,

点太多会把模型的绘制空间锁住,自由度极低,还会出现不合理的运动。10~20之间是比较恰当的选择。

2-cJbo.png

四、导入核心素材

将第三组生成的视频或者使用AE生成好的视频上传到对应的节点中,

我已经修改好了视频节点的标题,对应上传就好!

生成视频总帧数代表最大支持320帧!但先建议使用80帧,将整个工作流彻底掌握后再尝试多批次创作!

3-kfGj.png

五、批次处理

第五组内容则是计算分割方式的!。

以cn_image为例, 01是取素材的前81帧!因为批次节点,start代表从哪一帧开始,下载的length参数代表截取的长度。

是我设置的是81,就是取素材的前81帧!

02就是在01后面再取81帧,但我们使用了上一批次的最后一帧作为起始帧,所以传给stat参数的值需要减1,后面以此类推。

理论上你可以生成无限时长,我这里用4组,你也可以复制粘贴这里,修改这里,让视频变得更长! 但我建议最长15秒也就是使用3组,太长的话结果会越来越偏离自己的预期!

4-XfsT.png

六、设置参考图

参考图这里比之前工作流多了一个切换节点

选择1,代表使用参考图作为生成视频的参数!

选择2,将会用一张纯灰色图片来当做背景图,代表仅仅根据提示词来生成背景!

5-wvDQ.png

第七步部分-合成控制视图

将追踪视频 + openpose 或者 canny进行结合

选1:他就会老老实实只用镜头运镜追踪视频控制镜头

选2:把人物的 OpenPose也就是骨骼动作 + 运镜追踪进行融合

选3:就会将线稿 与 运镜进行融合,适用于部分室内场景。

如果镜头的主体是人物那么选择2,否则选择1.如果你的主体是室内,想保留室内结构,并且镜头没有人物那么选择3

点击运行,几秒钟后就可以看到openpose+追踪轨迹融合后的预览!

我们就是用它来控制视频的核心运动。

6-nCjt.png

八、渲染生成视频

第一部分,下面其他部分略有不同,只使用一个批次的话,只开启渲染视频的第一组就可以了!

使用工作流的lora模型只需要6步就可以!步数太多会对实拍的内容有较大的影响!

7-HMBN.png

九、叠加素材

叠加素材这一组是拿出实拍素材的主体部分,通过遮罩向内收缩,并设置遮罩边缘模糊,然后从新覆盖到生成的视频上!

修复主体被破坏掉的问题。

如果你使用720P分辨率生成,并且素材为30fps,同时镜头晃动极低,那么生成的视频主体不会有较大变化的情况!

11-LIWH.png

十、深度图视频

如果你想让你的视频更具有电影感,可以生成深度图视频,这样就可以通过Ae来设置视频的景深模糊!

12-gOEQ.png

好的效果需要不断打磨提示词和参考图!没有工作流是拿来一张图直接就出好效果的!

恐龙的效果,我差不多微调了有50次提示词,最终才得到比较中意的效果。大家需要有一定的耐心才能得到好的效果!

更希望大家能学到创作的思路!

资源下载

如果你喜欢我的教程,还请在点赞订阅我的B站和油管频道,让我更有动力努力下去,也希望你留下宝贵建议,谢谢!

3059D7D8-vlsb.gif
Download.png

工作流文件:黑石宇深度教程_No.1_Wan2.1_合成_v1.json.zip

素材文件:参考图.zip

景深模糊插件:AE景深模糊插件.zip