ChatGLM-Efficient-Tuning icon indicating copy to clipboard operation
ChatGLM-Efficient-Tuning copied to clipboard

微调chatglm2后进行预测出现大量复读现象

Open CCzzzzzzz opened this issue 1 year ago • 10 comments

如图,同等参数微调下的预测结果,上图为chatglm2,下图为chatglm image image

CCzzzzzzz avatar Jun 28 '23 14:06 CCzzzzzzz

目前我还不知道该问题的原因是什么,请关注后续更新。

hiyouga avatar Jun 28 '23 14:06 hiyouga

增大rank可以解决

fslongjin avatar Jun 28 '23 14:06 fslongjin

增大rank可以解决

我将rank增加到32仍然有问题。还是存在大量复读

CCzzzzzzz avatar Jun 28 '23 15:06 CCzzzzzzz

我也这样了,cy

SolarKnight1 avatar Jun 29 '23 02:06 SolarKnight1

确实变成复读机了...而且在复读机的时候感觉推理的速度变慢了

jtao024 avatar Jun 29 '23 02:06 jtao024

rank32 学习率1e-3 epoch20~30可以解决问题

fslongjin avatar Jun 29 '23 05:06 fslongjin

rank32 学习率1e-3 epoch20~30可以解决问题

借了大佬的参数,感觉还是不行,特别是回答数据比较短的时候,特别明显啊。各位大佬可有建议?

pdwfree avatar Jun 30 '23 01:06 pdwfree

rank32 学习率1e-3 epoch20~30可以解决问题

借了大佬的参数,感觉还是不行,特别是回答数据比较短的时候,特别明显啊。各位大佬可有建议?

更新代码版本了吗?

hiyouga avatar Jun 30 '23 01:06 hiyouga

rank32 学习率1e-3 epoch20~30可以解决问题

借了大佬的参数,感觉还是不行,特别是回答数据比较短的时候,特别明显啊。各位大佬可有建议?

更新代码版本了吗?

更新代码及模型后,再次微调我这边已经几乎没有复读问题(存在少量,注意超参的选择),大家更新模型和代码后试试。

CCzzzzzzz avatar Jun 30 '23 06:06 CCzzzzzzz

rank32 学习率1e-3 epoch20~30可以解决问题

借了大佬的参数,感觉还是不行,特别是回答数据比较短的时候,特别明显啊。各位大佬可有建议?

更新代码版本了吗?

您是说更新 ChatGLM2 的官方代码吗

ArtificialZeng avatar Jul 03 '23 03:07 ArtificialZeng

rank32 学习率1e-3 epoch20~30可以解决问题

借了大佬的参数,感觉还是不行,特别是回答数据比较短的时候,特别明显啊。各位大佬可有建议?

现在解决了吗

ArtificialZeng avatar Jul 05 '23 06:07 ArtificialZeng