最近很热门的Wan文生图工作流。
将视频模型用于生图是个“邪道”用法,但是一些地方确实效果极好,个人感觉尤其在亚洲人像上几乎吊打全部其他模型,看看示例图中的光感与细节就知道了,尤其是还原生支持中文提示词。
但不知道是我不会用,还是这种视频模型本来就这样,在其他方面表现简直是天壤之别。也就是生成日常现实中常见的事物与场景极强,而要生成一些玄幻类的需要重构联想类的场景基本没法用。
这个工作流是Wan2.2双重去噪,第一遍High去噪采样个人建议不用任何加速,防止大形走样,而第二遍Low去噪可以用Sega与MagCache大幅加速。至于FusionX那个Lora,其实个人感觉可有可无的说。
生成分辨率建议720X1280的wan原生分辨率,然后用后面的双截棍放大添加细节。