TencentPretrain icon indicating copy to clipboard operation
TencentPretrain copied to clipboard

lora训练llama 貌似不支持?

Open wind91725 opened this issue 1 year ago • 3 comments

如题:命令如下: python pretrain.py --pretrained_model_path models/llama-7b.bin --dataset_path datasets/ceshi --spm_model_path /u01/wangcheng/llm/llama/tokenizer.model --config_path models/llama/7b_config.json --output_model_path models/llama_zh_7b --world_size 5 --data_processor lm --total_steps 300000 --save_checkpoint_steps 5000 --batch_size 24 --use_lora --lora_dropout 0.05

只运行到Using distributed mode for training. 就结束了?

wind91725 avatar Apr 15 '23 12:04 wind91725

我和你遇到了用样的问题,请问你解决了吗?

Daniel-1997 avatar Apr 24 '23 06:04 Daniel-1997

用最新版本的项目是可以用lora训练的,只是很奇怪,看他介绍lora是分两步走的,第一步--pretrained_model_path models 和--use_lora --lora_dropout 0.05只训练一个lora权重,第二步通过--lora_pretrained_model_path --pretrained_model_path models --use_lora --lora_dropout 0.05加载训练好的lora权重再训练。

hepj987 avatar Jun 09 '23 01:06 hepj987

用最新版本的项目是可以用lora训练的,只是很奇怪,看他介绍lora是分两步走的,第一步--pretrained_model_path models 和--use_lora --lora_dropout 0.05只训练一个lora权重,第二步通过--lora_pretrained_model_path --pretrained_model_path models --use_lora --lora_dropout 0.05加载训练好的lora权重再训练。

但是按他这个流程走,lora训练的时候 loss不降 acc也不提升

hepj987 avatar Jun 09 '23 01:06 hepj987