Chinese-LLaMA-Alpaca icon indicating copy to clipboard operation
Chinese-LLaMA-Alpaca copied to clipboard

chinese-alpaca-lora-plus-7b精调后无法合并模型

Open yuanzhiyong1999 opened this issue 1 year ago • 8 comments

我使用chinese-alpaca-lora-plus-7b再次微调之后,在合并模型的时候出现如下问题: image 使用的合并脚本如下: python3 scripts/merge_llama_with_chinese_lora.py \ --base_model ../pretrained_models/llama-7b \ --lora_model ../pretrained_models/chinese-llama-plus-lora-7b,../alpaca-lora/finetune-result/chinese-alpaca-plus-7b/hdf_2009 \ --output_type huggingface \ --output_dir path_to_output_dir 我推测是词表大小不一致造成的,请问这个问题如何解决呢? 注:special_tokens_map.json、tokenizer_config.json、tokenizer.model三个文件是从chinese-alpaca-plus-lora-7b的预训练模型中直接拷贝的

yuanzhiyong1999 avatar May 07 '23 12:05 yuanzhiyong1999

因为并不清楚是怎么再次微调的,所以无法给出具体建议。 不过你可以先试一下根据提示信息把285行给注释掉再合并,看看合并出的模型效果是否正常。

airaria avatar May 07 '23 15:05 airaria

我是将chinese-alpaca-lora-plus-7b合并成hf模型之后,利用alpaca的代码进行的微调。结束后生成了adapter.json和adapter.bin。我将上述两个文件替换掉chinese-alpaca-lora-plus-7b中的同名文件。 我也试了在合并的时候将chinese-alpaca-lora-plus-7b的hf版本作为basemodel,将微调生成的文件作为lora model,还是一样的问题。

yuanzhiyong1999 avatar May 07 '23 15:05 yuanzhiyong1999

我是将chinese-alpaca-lora-plus-7b合并成hf模型之后,利用alpaca的代码进行的微调。结束后生成了adapter.json和adapter.bin。我将上述两个文件替换掉chinese-alpaca-lora-plus-7b中的同名文件。 我也试了在合并的时候将chinese-alpaca-lora-plus-7b的hf版本作为basemodel,将微调生成的文件作为lora model,还是一样的问题。

微调用的也是LoRA吗,可否发一下LoRA训练的配置?

airaria avatar May 07 '23 15:05 airaria

微调用的是合并后的plus版本的hf模型,不是lora

yuanzhiyong1999 avatar May 07 '23 15:05 yuanzhiyong1999

微调代码: python3 finetune.py \ --base_model '../pretrained_models/chinese-alpaca-plus-lora-7b-hf' \ --data_path '2009.json' \ --output_dir './chinese-medical-lora-alpaca' \ --batch_size 512 \ --num_epochs 1 \ --learning_rate 1e-4

yuanzhiyong1999 avatar May 07 '23 15:05 yuanzhiyong1999

微调用的是合并后的plus版本的hf模型,不是lora

那微调存下来的不应该是全量模型吗?不需要合并了。

airaria avatar May 07 '23 16:05 airaria

我使用的是https://github.com/tloen/alpaca-lora/,精调之后生成的目录结构如下: image 但是我发现adapter_config.json和adapter_model.bin两个文件的大小都是4kb,这是不是有问题呀

yuanzhiyong1999 avatar May 08 '23 00:05 yuanzhiyong1999

@yuanzhiyong1999 peft降级用0.2.0版本

ningpengtao-coder avatar May 08 '23 04:05 ningpengtao-coder

This issue has been automatically marked as stale because it has not had recent activity. It will be closed if no further activity occurs. Thank you for your consideration.

github-actions[bot] avatar May 15 '23 22:05 github-actions[bot]

Closing the issue, since no updates observed. Feel free to re-open if you need any further assistance.

github-actions[bot] avatar May 18 '23 22:05 github-actions[bot]