ChatGLM-Efficient-Tuning
ChatGLM-Efficient-Tuning copied to clipboard
加载chatGLM-6b模型,提示“Please specify `use_v2` argument while using ChatGLM2-6B.”
/src/pet/core/model.py文件第71行tokenizer = AutoTokenizer.from_pretrained载入tokenizer 之后,打印出tokenizer.eos_token_id=2,并不是130005,导致133行的断言assert tokenizer.eos_token_id == 130005触发
你用的是啥模型?
chatGLM-6b,第一代的
我把那行断言注释掉了,可以跑
ChatGLM 1代的 eos token id 应该是 130005 没错啊,2代才是 2
估计是应该用config.eos_token_id
我这里看还是 130005,
原因找到了,chatGLM-6b官方的模型有更改,我的是以前下载到本地的版本,4月11日之前的模型会有这个问题