FlagEmbedding
FlagEmbedding copied to clipboard
m3显存
bge-m3
torchrun --nproc_per_node 8
-m FlagEmbedding.reranker.run
--output_dir model
--model_name_or_path bge-m3
--train_data rerank.jsonl
--learning_rate 6e-5 \
--deepspeed /ds_config.json
--gradient_checkpointing
--fp16
--num_train_epochs 5
--per_device_train_batch_size 1
--gradient_accumulati
on_steps 8
--dataloader_drop_last True
--train_group_size 2
--max_len 1024
--weight_decay 0.01
--logging_steps 10
m3 这个设置 8卡a40显存不够,是正常的吗,训练一个2k的需要什么训练资源?