OneTrainer可以训练FLUX Dev,但不支持保存训练结果,效果有限。尽管尝试了EMA训练,质量仍不理想,且CPU速度较慢。与Kohya相比,OneTrainer的优势不明显,需要进一步研究。
Kohya对FLUX LoRA和DreamBooth进行了重要改进,最低4GB GPU可用于FLUX LoRA训练,6GB GPU用于DreamBooth训练。更新后,下载和安装速度更快,支持FP16和FP8训练,显著降低了VRAM使用。
Kohya GUI的新进展使得在仅6GB的GPU上进行Fine Tune/DreamBooth训练成为可能,效果媲美48GB的GPU。Fine Tuning效果优于LoRA训练,相关配置和教程已发布,支持Windows和云端。LoRA提取指南提供后几乎无质量损失。改进的块交换技术提升了速度,测试在RTX A6000上进行,分辨率为1024x1024。安装程序和测试提示已分享。
完成下面两步后,将自动完成登录并继续当前操作。