出图模型使用 ghostmix 和 anything。
触发词:top hat, hat bow, ascot, gloves, jewelry, blue gemstone, blue jacket, white vest, white shorts
其他:coattails, boots, (thigh strap:0.9), from side, from behind, white glove, black glove ...
示例:1girl,solo,pink hair,long hair,french braid,ponytail,hair bow,yellow eyes,ascot,top hat,gloves,hat bow,blue bow,jewelry,blue gemstone,blue jacket,coattails,white vest,white shorts,boots,(thigh strap:0.9)
黑白手套不稳定,请额外设置提示词 black glove 和 white glove(仍有抽奖概率)。
有概率出现挑染,在负面提示词中加入 streaked hair 和 hair intakes 可去除。在部分融合模型上(如 dreamshaper)输入 blue hair,会出现蓝色卷发和短发的标签融合情况,且无法分离。目前解释是,虽经过去除和优化,该模型仍然学习了微量的人物特征,且在部分模型上这部分特征被放大了,特别是 2.5d 模型。
————————————
发现了一种用于分离人物特征和服装的训练方法,并经过了多次优化,训练了两个原神的服装模型,放在了 C站上,有兴趣可以去看看。这次尝试将方法应用在 437 张图的大训练集中,用以验证其对训练集的质量要求。结果效果不是很好,但作为试验品,姑且及格了,就先传上来。
另外,在训练服装概念时,我发现 lion 比 prodigy 拥有更好的去画风能力。因此我认为如果有明确的训练目标,使用 lion 依旧是最佳的选择。
所以,我的结论是:相比于提升训练集数量,优化训练集标签和图片质量是优先级最高的做法。另外,不同训练难度的模型对训练集图片数量要求也不一样,但我目前没有很好的预测训练集数量上限的方法。
为了确认从 AI 的角度,同一个物件的不同视角,究竟是一个东西还是两个东西,我将背面和侧面的学习次数设置的较少。后续测试也只测试了正面的拟合效果,背部和侧面欠拟合严重,请谨慎出图
该版本尚有缺陷,后续可能会精简训练集质量。