WAN 2.2 视频生成 Rapid-AllInOne (WAN模型+CLIP+VAE)快速一体化解决方案
wan2.2-i2v-rapid-aio-nsfw-v7.safetensors
轻松部署、4步加速、快速制作、图生视频
----------------------------------------------------------
Wan2.2万相4步加速视频生成(文生视频+图生视频)
Rapid-AllInOne工作流
https://www.liblib.art/modelinfo/04fcccaaa2f649da9a21f3c5534d39ba
----------------------------------------------------------
这些是WAN 2.2和其他类似WAN模型及加速器(包括CLIP和VAE)的混合体,旨在提供一个快速、“一体化”的解决方案,以尽可能简单和快速地制作视频。FP8精度。通常推荐使用每种类型模型(图像到视频或文本到视频)的最新版本。
NSFW: 不正经的人应该远离这些融合模型,因为它们只适用于最有文化修养的人或科学研究者。
似乎即使在8GB显存上也能工作:
变更日志/版本:
基础版: 这是首次尝试,非常“稳定”,但主要是WAN 2.2的少量特性。推荐使用sa_solver。
V2: 这是一个更动态的混合体,具有更多的WAN 2.2特性。推荐使用sa_solver或euler_a采样器。在I2V中存在轻微的颜色偏移和噪点,通常仅在开始时出现。
V3: 这是SkyReels和WAN 2.2的混合体,应能提高提示遵循度和质量。推荐使用euler_a采样器和beta调度器。在I2V中存在轻微的颜色偏移和噪点,通常仅在开始时出现。
V4: 混合了WAN 2.2 Lightning!推荐使用euler_a/beta。I2V中的噪点和颜色偏移通常有所改善,但运动有些过度夸张。
V5: 改进了I2V模型的过度夸张问题。推荐使用euler_a/beta。
V6: 新的合并结构和整体质量显著提升。I2V在前1-2帧中仍然存在噪声,但比以前的版本有所改善。某些强度较大的WAN 2.1 LORAs可能导致T2V生成最多5帧质量较差的早期帧,这时可以考虑丢弃这些帧(或降低强度)。推荐使用sa_solver/beta。I2V很少受到一些剧烈场景变化的影响。
V7: I2V的场景切换问题应该已经修复,但仍然存在一些I2V噪声(通常只在前1-2帧)。T2V模型没有变化,因此仍保持为V6版本。推荐使用sa_solver/beta。
V8: T2V现在完全基于WAN 2.2 "low"(结合了PUSA、SkyReels和Lightning加速器),这应该解决了噪声问题(8.1增加了更多的SkyReels)。I2V减少了一些WAN 2.2混合,这有助于减少噪声问题。尽管仍然存在一些轻微的I2V噪声,但通过更精细地平衡WAN 2.2 + SkyReels,以保持良好的运动性和灵活性。推荐使用Euler_a/beta。
V9: 从I2V(以及完全从T2V)的WAN 2.2部分移除了PUSA和SkyReels,因为我认为当应用于WAN 2.2时,PUSA/SkyReels并不总能提供帮助(有时甚至有害)。这应该提供了一个更可靠的基础来工作。euler_a/beta 推荐,但也可以自由尝试sa_solver/beta或其他选项!
免责声明: 正如您可能预料的那样,为了达到这种速度和简洁性,不得不做出一些妥协。如果您希望进行更复杂的工作流程和更长的生成时间来运行“完整WAN 2.2”的一对模型(这将产生更高品质的结果),或者希望控制此合并中包含的加速器LORAs,有许多其他资源可供选择。
* 作者:Phr00t