lianglinyi

Results 5 comments of lianglinyi

我现在微调有些报错,不太知道怎么解决 Target module QuantizedLinear() is not supported. Currently, only `torch.nn.Linear` and `Conv1D` are supported. ![image](https://github.com/yuanzhoulvpi2017/zero_nlp/assets/16891076/c9c6ec05-1dbb-451c-8fb1-4b78eef0f92d) 代码里我看应该是在这个地方开始有问题, main.py 165行,166行这。求教 model = model.to(torch.bfloat16) model = get_peft_model(model, config)

是的,全量微调时候,用了chatglm2 int8量化。 那意思是我全量微调的模型不应该量化是吧,我这机器不太行,不量化跑不动

> 修改下 tokenization_baichuan.py 也可以,把 super() 修改到最后执行 这个方法可行,墙裂推荐,其他人的方法都不太对

> > > 修改下 tokenization_baichuan.py 也可以,把 super() 修改到最后执行 > > > > > > 这个方法可行,墙裂推荐,其他人的方法都不太对 > > 大佬,为什么我修改tokenization_baichuan.py之后,重新运行就把super()又自动改到上面去了? 是加载已经下载好的模型吧?不会是重新下载模型?