WAN2.2-14B-Rapid-AllInOne(MEGA 版)

MEGA版本的模型不再需要单独的I2V和T2V版本。

无需加载 VAE、CLIP、T5 等附加模型,无需加载加速LoRA。

仅用1个模型即可实现文生视频、图生视频、首尾帧视频。

模型已经融合了VACE Fun、SkyReels、FunReward以及常用的4步加速器/CLIP/VAE组合。

推荐采样步数:4 ~ 8 步。

---------------------------------------

Rapid-AllInOne MEGA(MEGA版1个模型同时支持文生视频和图生视频)

模型版本:Wan2.2-rapid-mega-aio

下载地址:https://www.liblib.art/modelinfo/d82fbf3da66c4645ad1156e655991076

Rapid-AllInOne(文生视频)

模型版本:Wan2.2-t2v-rapid-aio-v10  

下载地址:https://www.liblib.art/modelinfo/c0e98b562ef5404da8edfe5e28cc7889

Rapid-AllInOne(图生视频)

模型版本:wan2.2-i2v-rapid-aio-v10

下载地址:https://www.liblib.art/modelinfo/24cf594bce4e4e30b2ccb2b5fb00c7a0

---------------------------------------

WAN2.2-14B-Rapid-AllInOne 是由社区开发者 Phr00t 打包发布的「一体化极速版」视频生成大模型,核心定位是“把原版 WAN 2.2 的 14B 参数能力做成最低门槛、最快出片”。一句话概括:14B 量级、FP8 精度、4 步采样、8 GB 显存可跑,图像/文本都能直接出视频,ComfyUI 基础节点就能加载,无需再单独准备 VAE、CLIP、T5 等附加模型。

1. 组成与原理

  • 母体:主要基于 WAN 2.2-I2V/T2V 14B,同时合并了 WAN 2.1、LightX2V-LoRA、PUSA-LoRA 等社区加速模块,以及对应的 VAE 与 UMT5 文本编码器。
  • MoE 双专家:原生 WAN 2.2 采用「高噪声-全局专家 + 低噪声-细节专家」混合结构,总参 27 B,但每步只激活 14 B,保证画质几乎不减而显存与计算量持平。
  • 精度与步数:官方推荐 FP8 + 1 CFG + 4 步即可出片;在 8 GB 卡(RTX 3060/4060/5070 等)上 512×512 24 帧约 30–60 s 生成完成。

2. 功能亮点

  • 文生视频 / 图生视频二合一:同一个 .safetensors 文件同时支持 Text→Video、Image→Video,省去切换模型。
  • 极低显存:FP8 权重 + 高压缩 VAE,8 GB 显存即可跑通,6 GB 通过–lowvram 模式也能生成。
  • 工作流极简:ComfyUI 只需一个「Load Checkpoint」节点即可加载,无需额外 T5/VAE/CLIP 节点,官方示例 4-5 个节点就能出片。
  • 批量 & 高兼容性:支持批量提示、50 系显卡、Windows/Linux、ComfyUI 原生或便携包“解压即用”。

3. 典型参数(社区经验)

  • 分辨率:512×512、768×432、960×544 等 64 的倍数最稳;非 64 的偶数高宽也能跑,但偶发边缘噪点。
  • 帧数:16/24/32/48 帧均可,24 帧为速度与流畅度折中。
  • 步数:4–8 步即可(生成人像建议8步),超过 10 步提升有限。

---------------------------------------

关于MEGA版本

MEGA v1:

模型不再需要单独的I2V和T2V版本。

I2V不再有噪声问题!

MEGA v1: 基于WAN 2.2 "lowT2V",

然后添加了VACE Fun、SkyReels、FunReward以及常用的加速器/CLIP/VAE组合。

推荐使用ipndm/sgm_uniform采样器/调度器。

MEGA v2: 移除了导致面部偏移的 FunReward LORA。我确实注意到在nsfw合并中仍然存在一些轻微的面部偏移,我认为这是由于 LORA 混合造成的,但已经有所改进。还稍微减少了一些 SkyReels LORA。推荐使用 ipndm/beta。

MEGA v3: 使用非常不同的合并方法,基于 SkyReels 2.1 作为 33% 基础和 WAN 2.2 作为 66% 上层。我现在还为每个版本(2.1 和 2.2)匹配加速器,然后合并。我认为通过基于设计用于 1 个采样器(2.1)的模型来构建“mega”,然后将大部分 WAN 2.2 带入上层,可以获得更好的结果。我希望这将改善摄像机控制、LORA 兼容性和保持面部特征。推荐使用 ipndm/beta。

MEGA v4: 使用来自https://huggingface.co/eddy1111111/WAN22.XX_Palingenesis 的WAN 2.2微调(同时也对加速器强度进行了微小调整)

MEGA v5: 新的合并方法,带有非常实验性的加速器混合!我在 WAN22.XX_Palingenesis 和 SkyReels 720p 之上加入了少量许多 I2V 和 T2V 加速器,再加上 VACE。目标是提高 I2V 的一致性而不损害 T2V。我认为质量、细节和一致性都有所提高,但我希望摄像机控制能更好。推荐使用 euler_a/beta。