DiffSynth-Studio
DiffSynth-Studio copied to clipboard
关于FLUX kontext的多机多卡训练
您好,我仔细查看了之前的issue,发现您似乎不准备支持各个模型的单卡多batch训练。但请问,我是否可以简单的把:
accelerate launch \
examples/flux/model_training/train.py \
替换为
accelerate launch \
--multi_gpu \
--num_processes 3 \
--gpu_ids 5,6,7 \
--mixed_precision bf16 \
examples/flux/model_training/train.py \
来实现多卡训练,以及后面的多机训练都是直接改这里即可,且保证训练逻辑完全正确?
您好?这个我之前训练的时候发现好像训练结果会有点问题,这个你们有测试过吗?
希望可以得到回复!!