Chinese-LLaMA-Alpaca
Chinese-LLaMA-Alpaca copied to clipboard
chinese-alpaca-lora-plus-7b精调后无法合并模型
我使用chinese-alpaca-lora-plus-7b再次微调之后,在合并模型的时候出现如下问题:
使用的合并脚本如下:
python3 scripts/merge_llama_with_chinese_lora.py \ --base_model ../pretrained_models/llama-7b \ --lora_model ../pretrained_models/chinese-llama-plus-lora-7b,../alpaca-lora/finetune-result/chinese-alpaca-plus-7b/hdf_2009 \ --output_type huggingface \ --output_dir path_to_output_dir
我推测是词表大小不一致造成的,请问这个问题如何解决呢?
注:special_tokens_map.json、tokenizer_config.json、tokenizer.model三个文件是从chinese-alpaca-plus-lora-7b的预训练模型中直接拷贝的
因为并不清楚是怎么再次微调的,所以无法给出具体建议。 不过你可以先试一下根据提示信息把285行给注释掉再合并,看看合并出的模型效果是否正常。
我是将chinese-alpaca-lora-plus-7b合并成hf模型之后,利用alpaca的代码进行的微调。结束后生成了adapter.json和adapter.bin。我将上述两个文件替换掉chinese-alpaca-lora-plus-7b中的同名文件。 我也试了在合并的时候将chinese-alpaca-lora-plus-7b的hf版本作为basemodel,将微调生成的文件作为lora model,还是一样的问题。
我是将chinese-alpaca-lora-plus-7b合并成hf模型之后,利用alpaca的代码进行的微调。结束后生成了adapter.json和adapter.bin。我将上述两个文件替换掉chinese-alpaca-lora-plus-7b中的同名文件。 我也试了在合并的时候将chinese-alpaca-lora-plus-7b的hf版本作为basemodel,将微调生成的文件作为lora model,还是一样的问题。
微调用的也是LoRA吗,可否发一下LoRA训练的配置?
微调用的是合并后的plus版本的hf模型,不是lora
微调代码:
python3 finetune.py \ --base_model '../pretrained_models/chinese-alpaca-plus-lora-7b-hf' \ --data_path '2009.json' \ --output_dir './chinese-medical-lora-alpaca' \ --batch_size 512 \ --num_epochs 1 \ --learning_rate 1e-4
微调用的是合并后的plus版本的hf模型,不是lora
那微调存下来的不应该是全量模型吗?不需要合并了。
我使用的是https://github.com/tloen/alpaca-lora/,精调之后生成的目录结构如下:
但是我发现adapter_config.json和adapter_model.bin两个文件的大小都是4kb,这是不是有问题呀
@yuanzhiyong1999 peft降级用0.2.0版本
This issue has been automatically marked as stale because it has not had recent activity. It will be closed if no further activity occurs. Thank you for your consideration.
Closing the issue, since no updates observed. Feel free to re-open if you need any further assistance.