LLaMA-Factory icon indicating copy to clipboard operation
LLaMA-Factory copied to clipboard

qwen训练完成后,适配器刷不出来,手动填地址也无法识别的问题。

Open FOXaaFOX opened this issue 11 months ago • 1 comments

Reminder

  • [x] I have read the README and searched the existing issues.

Reproduction

尝试继续训练,会秒“训练成功”,但是适配器还是刷新不出来

最后直接上的命令行。 CUDA_VISIBLE_DEVICES=0 python src/export_model.py
--model_name_or_path /mnt/workspace/qwen/Qwen-7B-Chat
--adapter_name_or_path /mnt/workspace/LLaMA-Factory/save
--template default
--finetuning_type lora
--export_dir /mnt/workspace/FT-models
--export_size 5
--export_legacy_format False

Expected behavior

No response

System Info

No response

Others

No response

FOXaaFOX avatar Mar 23 '24 21:03 FOXaaFOX

你这个是合并模型的指令哦。并不是用于训练或者导出适配器的指令。

一些概念:

  • 适配器:差不多就是使用附加网络在只训练附加网络的情况下训练模型的”附加网络“。
  • Lora:适配器的一种。
  • export_model.py:用于合并附加网络和主网络,自然不会导出”适配器“呢。导出的应该是类似于主网络的文件。
  • train_bash.py:用于训练的脚本

对于你的例子可能的解决方案

使用如下指令训练:

python src/train_bash.py \
    --model_name_or_path /mnt/workspace/qwen/Qwen-7B-Chat \
    --adapter_name_or_path /mnt/workspace/LLaMA-Factory/save \
    --stage sft \
    --do_train \
    --dataset 你的数据集 \
    --template qwen \
    --finetuning_type lora \
    --lora_target all \
    --output_dir 保存路径 \
    --per_device_train_batch_size 期望批次数(4-16) \
    --gradient_accumulation_steps 梯度累计(4-8) \
    --lr_scheduler_type cosine \
    --logging_steps 10 \
    --save_steps 1000 \
    --learning_rate 5e-5 \
    --num_train_epochs 训练轮数(你的数据集越大这个越高:3-30) \
    --plot_loss \
    --fp16

marko1616 avatar Mar 23 '24 22:03 marko1616

看描述,无法确定你具体是什么问题?是训练很快结束,但是找不到 lora保存的目录和文件吗? 而且是train_web.py 里训练,但是点击 适配器刷新,无法刷新出对应结果?

codemayq avatar Mar 25 '24 01:03 codemayq