FlagAI
FlagAI copied to clipboard
AquilaChat lora微调后,无法加载模型
System Info
flagai 1.7.3 torch 2.0.1 cuda 11.0
Information
- [X] The official example scripts
- [ ] My own modified scripts
Tasks
- [ ] An officially supported task in the
examples
folder (such as T5/AltCLIP, ...) - [X] My own task or dataset (give details below)
Reproduction
微调关键事项:注释了如下代码
加载模型的代码
错误信息:
******************** lm aquilachat-7b
Traceback (most recent call last):
File "generate_chat.py", line 11, in
Expected behavior
正常加载并chat
lora得用单独的方式加载,先不用lora吧,我们修修,实在是不好意思
不用lora,微调以后,将最后一个step(数字结尾的文件夹里面的)这两个文件覆盖下载下来的文件仍然报错
-rw-rw-r-- 1 buyllm buyllm 2 6月 16 01:25 config.json
-rw-rw-r-- 1 buyllm buyllm 14G 6月 16 01:24 pytorch_model.bin
用上诉方法加载,后仍然相同的错误
@BAAI-OpenPlatform
另外你们也没有文档说明,微调后的模型如何使用
一言难尽
@BAAI-OpenPlatform 这里有关注吗
按照 Aquila-7B 的 README 执行到 python generate.py 的时候,有跟楼主相同的报错