LLaMA-Factory
LLaMA-Factory copied to clipboard
qwen训练完成后,适配器刷不出来,手动填地址也无法识别的问题。
Reminder
- [x] I have read the README and searched the existing issues.
Reproduction
尝试继续训练,会秒“训练成功”,但是适配器还是刷新不出来
最后直接上的命令行。
CUDA_VISIBLE_DEVICES=0 python src/export_model.py
--model_name_or_path /mnt/workspace/qwen/Qwen-7B-Chat
--adapter_name_or_path /mnt/workspace/LLaMA-Factory/save
--template default
--finetuning_type lora
--export_dir /mnt/workspace/FT-models
--export_size 5
--export_legacy_format False
Expected behavior
No response
System Info
No response
Others
No response
你这个是合并模型的指令哦。并不是用于训练或者导出适配器的指令。
一些概念:
- 适配器:差不多就是使用附加网络在只训练附加网络的情况下训练模型的”附加网络“。
- Lora:适配器的一种。
- export_model.py:用于合并附加网络和主网络,自然不会导出”适配器“呢。导出的应该是类似于主网络的文件。
- train_bash.py:用于训练的脚本
对于你的例子可能的解决方案
使用如下指令训练:
python src/train_bash.py \
--model_name_or_path /mnt/workspace/qwen/Qwen-7B-Chat \
--adapter_name_or_path /mnt/workspace/LLaMA-Factory/save \
--stage sft \
--do_train \
--dataset 你的数据集 \
--template qwen \
--finetuning_type lora \
--lora_target all \
--output_dir 保存路径 \
--per_device_train_batch_size 期望批次数(4-16) \
--gradient_accumulation_steps 梯度累计(4-8) \
--lr_scheduler_type cosine \
--logging_steps 10 \
--save_steps 1000 \
--learning_rate 5e-5 \
--num_train_epochs 训练轮数(你的数据集越大这个越高:3-30) \
--plot_loss \
--fp16
看描述,无法确定你具体是什么问题?是训练很快结束,但是找不到 lora保存的目录和文件吗? 而且是train_web.py 里训练,但是点击 适配器刷新,无法刷新出对应结果?