zero_nlp icon indicating copy to clipboard operation
zero_nlp copied to clipboard

infer的时候,如果问训练集问题,模型响应异常

Open pollymars opened this issue 1 year ago • 3 comments

使用最新代码微调之后,infer的时候遇到了以下bug,不知道是不是lora调整的层加载在cpu?还是别的原因

97dd52f2d91358f6775ffdda7540740

pollymars avatar Mar 28 '23 14:03 pollymars

修改了torch/nn/modules/linear.py的114行,把self.weight(即attention的linear权重)所在device设为合适的cuda: return F.linear(input, self.weight.to(input.device), self.bias) 然后就可以跑通infer了。这个bug应该是因为模型微调时,设置LoraConfig的target_modules=['query_key_value','dense','dense_h_to_4h','dense_4h_to_h'],然后infer的时候,有些Lora调整过的dense层的权重被加载在cpu了(不清楚是不是可以在Lora加载的时候指定一下)。 但是,后续又遇到另一个问题,用微调后模型做问答的时候,问一些常规问题时可以正常回答、响应也挺快,然而,问一些训练集问题的时候,就会卡好一会、反复打印输入参数直到报OutOfMemoryError。给我感觉是,模型会根据问题文本,走不同的参数路径,当遇到训练集问题的时候,就走到Lora层,然后就死循环了?。 不知道大家伙有没有遇到类似问题的。。现在打算修改LoraConfig的target_modules试验看看。

pollymars avatar Mar 29 '23 09:03 pollymars

我自己也用自己的数据训练了,也是这样,不知道为啥?但是alpaca_chinese_dataset训出来的模型没问题,是数据问题吗?

GaoPengGit avatar Mar 29 '23 09:03 GaoPengGit

但是,后续又遇到另一个问题,用微调后模型做问答的时候,问一些常规问题时可以正常回答、响应也挺快,然而,问一些训练集问题的时候,就会卡好一会、反复打印输入参数直到报OutOfMemoryError。给我感觉是,模型会根据问题文本,走不同的参数路径,当遇到训练集问题的时候,就走到Lora层,然后就死循环了?。 不知道大家伙有没有遇到类似问题的。。现在打算修改LoraConfig的target_modules试验看看。

而且,反复打印的输入参数显示,输入文本越来越长;使用训练epoch更久的模型,基本都会响应异常(这点也对应了我先前没提到的另一个奇怪现象,训练过了4个epoch之后,train_loss和eval_loss都开始变很大)。

我自己也用自己的数据训练了,也是这样,不知道为啥?但是alpaca_chinese_dataset训出来的模型没问题,是数据问题吗?

我也是用自己数据训练,和LoraConfig的target_modules设置有关系吗?

pollymars avatar Mar 29 '23 10:03 pollymars