MedicalGPT icon indicating copy to clipboard operation
MedicalGPT copied to clipboard

预训练后模型出现自问自答、输出未知序列、重复口吃现象

Open Peter-of-Astora opened this issue 11 months ago • 6 comments

4预测问题、重复问题、未知字符问题

这个问题是出在哪里了呢? 如果我的预训练数据不是很多,我是不是应该调整一下LoRA的参数,让模型参数调整变少一点,具体可以怎么调整呢?

Peter-of-Astora avatar Mar 21 '24 13:03 Peter-of-Astora

  1. 你这是把escape special tokens 打开了,关闭就好了;
  2. 如果要调整lora参数,就调整r(要参数小就调小),rank是秩,也可以调小。
  3. 数据重复问题,加大惩罚系数,改为1.2

shibing624 avatar Mar 22 '24 02:03 shibing624

不好意思还想再问一下,escape special tokens是在哪里设置呀,configuration的文件里面吗 然后惩罚系数的话,具体是指哪个参数呀😂

Peter-of-Astora avatar Mar 22 '24 11:03 Peter-of-Astora

是要把tokenizer文件里面的这个设置成True吗 image

Peter-of-Astora avatar Mar 22 '24 12:03 Peter-of-Astora

是要把tokenizer文件里面的这个设置成True吗 image

请问您解决了吗?我也遇到了这个问题

Riapy avatar Mar 27 '24 13:03 Riapy

惩罚系数是在这里: https://github.com/THUDM/ChatGLM3/blob/main/basic_demo/web_demo_gradio.py#L139 在api的demo和gradio的demo里面都有这个参数,关于特殊字符的参数也在这里面。 我更改了参数后,发现依然存在以上问题。

最后解决的办法是,用少量(20K以下就行)的通用SFT数据进行训练,发现可以进行正常的交流: image

所以应该是需要在增量预训练后进行能力恢复,就可以了。

Peter-of-Astora avatar Mar 28 '24 13:03 Peter-of-Astora

@Peter-of-Astora 您好,请教您一下 i、请问你的解决办法是sft中只用20k条样例来训练吗? ii、您的增量预训练用的样例数可以问一下吗? 我也出现了模型自问自答,甚至胡言乱语的情况,很头疼。。。

tszslovewanpu avatar Apr 29 '24 02:04 tszslovewanpu

尝试加大惩罚系数,改为1.2。数据多样性。

LIE-24 avatar Aug 22 '24 02:08 LIE-24