KevinFan0

Results 3 comments of KevinFan0

> > 感谢大佬,这里记录我在跑这份代码的时候遇到的几个问题,可能都与我的环境有关。 > > > > * 加载模型时,有2处需要.half() > > * reward model 训练时 loss在第一个batch后变为nan,需要backward时 model.float() forward时再 model.half() > > 你可以去我的fork,去最新的分支Add_GLMChat,我重构了代码,并且把GLM自己的(bs,1,seq,seq)的attention mask加进去了,训练时候,critic默认把use action设置为False,loss下降的更符合GLM的风格(下降很迅速) 大佬,我看了最新的分支,有一个关于数据集的疑问,准备数据集是还是以你main分支中的readme方法先执行easy_dataset吗?

> 是的。否则sentencepiece做tokenize太慢,无法接受Sent from my iPhoneOn Apr 23, 2023, at 14:21, KevinFan0 ***@***.***> wrote: 感谢大佬,这里记录我在跑这份代码的时候遇到的几个问题,可能都与我的环境有关。 加载模型时,有2处需要.half() reward model 训练时 loss在第一个batch后变为nan,需要backward时 model.float() forward时再 model.half() 你可以去我的fork,去最新的分支Add_GLMChat,我重构了代码,并且把GLM自己的(bs,1,seq,seq)的attention mask加进去了,训练时候,critic默认把use action设置为False,loss下降的更符合GLM的风格(下降很迅速) 大佬,我看了最新的分支,有一个关于数据集的疑问,准备数据集是还是以你main分支中的readme方法先执行easy_dataset吗? —Reply to this email...