lianglinyi
lianglinyi
我现在微调有些报错,不太知道怎么解决 Target module QuantizedLinear() is not supported. Currently, only `torch.nn.Linear` and `Conv1D` are supported.  代码里我看应该是在这个地方开始有问题, main.py 165行,166行这。求教 model = model.to(torch.bfloat16) model = get_peft_model(model, config)
是的,全量微调时候,用了chatglm2 int8量化。 那意思是我全量微调的模型不应该量化是吧,我这机器不太行,不量化跑不动
感谢大佬,我先试试
> 修改下 tokenization_baichuan.py 也可以,把 super() 修改到最后执行 这个方法可行,墙裂推荐,其他人的方法都不太对
> > > 修改下 tokenization_baichuan.py 也可以,把 super() 修改到最后执行 > > > > > > 这个方法可行,墙裂推荐,其他人的方法都不太对 > > 大佬,为什么我修改tokenization_baichuan.py之后,重新运行就把super()又自动改到上面去了? 是加载已经下载好的模型吧?不会是重新下载模型?