lora-scripts icon indicating copy to clipboard operation
lora-scripts copied to clipboard

多机训练,卡住不动

Open ZeeLyn opened this issue 6 months ago • 0 comments

主机启动参数

accelerate launch --multi_gpu --num_machines=2  --machine_rank=0   --main_process_ip='localhost' --main_process_port=6600 ${launchArgs[@]}  $trainer_file \
  --enable_bucket \
  --pretrained_model_name_or_path=$pretrained_model \
  --ae=$ae \
  --clip_l=$clip_l \
  --t5xxl=$t5xxl \
  --train_data_dir=$train_data_dir \
  --output_dir="./output" \
  --logging_dir="./logs" \
  --log_prefix=$output_name \
  --resolution=$resolution \
  --network_module=$network_module \
  --max_train_epochs=$max_train_epoches \
  --learning_rate=$lr \
  --unet_lr=$unet_lr \
  --text_encoder_lr=$text_encoder_lr \
  --lr_scheduler=$lr_scheduler \
  --lr_warmup_steps=$lr_warmup_steps \
  --lr_scheduler_num_cycles=$lr_restart_cycles \
  --network_dim=$network_dim \
  --network_alpha=$network_alpha \
  --output_name=$output_name \
  --train_batch_size=$batch_size \
  --save_every_n_epochs=$save_every_n_epochs \
  --mixed_precision="fp16" \
  --save_precision="fp16" \
  --seed="1337" \
  --cache_latents \
  --prior_loss_weight=1 \
  --max_token_length=225 \
  --caption_extension=".txt" \
  --save_model_as=$save_model_as \
  --min_bucket_reso=$min_bucket_reso \
  --max_bucket_reso=$max_bucket_reso \
  --keep_tokens=$keep_tokens \
  --xformers --shuffle_caption ${extArgs[@]}

副主机启动参数

accelerate launch --multi_gpu --num_machines=2  --machine_rank=1   --main_process_ip='192.168.3.55' --main_process_port=6600 ${launchArgs[@]}  $trainer_file \
  --enable_bucket \
  --pretrained_model_name_or_path=$pretrained_model \
  --ae=$ae \
  --clip_l=$clip_l \
  --t5xxl=$t5xxl \
  --train_data_dir=$train_data_dir \
  --output_dir="./output" \
  --logging_dir="./logs" \
  --log_prefix=$output_name \
  --resolution=$resolution \
  --network_module=$network_module \
  --max_train_epochs=$max_train_epoches \
  --learning_rate=$lr \
  --unet_lr=$unet_lr \
  --text_encoder_lr=$text_encoder_lr \
  --lr_scheduler=$lr_scheduler \
  --lr_warmup_steps=$lr_warmup_steps \
  --lr_scheduler_num_cycles=$lr_restart_cycles \
  --network_dim=$network_dim \
  --network_alpha=$network_alpha \
  --output_name=$output_name \
  --train_batch_size=$batch_size \
  --save_every_n_epochs=$save_every_n_epochs \
  --mixed_precision="fp16" \
  --save_precision="fp16" \
  --seed="1337" \
  --cache_latents \
  --prior_loss_weight=1 \
  --max_token_length=225 \
  --caption_extension=".txt" \
  --save_model_as=$save_model_as \
  --min_bucket_reso=$min_bucket_reso \
  --max_bucket_reso=$max_bucket_reso \
  --keep_tokens=$keep_tokens \
  --xformers --shuffle_caption ${extArgs[@]}

两台主机都运行到这一步就不动了没有任何报错:

Image

ZeeLyn avatar Jul 09 '25 04:07 ZeeLyn