ChatGLM-6B icon indicating copy to clipboard operation
ChatGLM-6B copied to clipboard

[BUG/Help] <用自带广告数据P-tuning后,模型原有能力消失>

Open twosnowman opened this issue 1 year ago • 7 comments

Is there an existing issue for this?

  • [X] I have searched the existing issues

Current Behavior

按照说明p-tuning自带的广告语数据后,加载训练后模型,原有能力基本消失,所有回答都和广告语相关,答非所问。如何保留原有能力的情况下p-tuning,感谢!

Expected Behavior

No response

Steps To Reproduce

如以上问题所述

Environment

- OS: wsl Ubuntu
- Python: 3.10
- Transformers:4.27.1
- PyTorch: 2.0.0
- CUDA Support (`python -c "import torch; print(torch.cuda.is_available())"`) :

Anything else?

No response

twosnowman avatar Apr 20 '23 08:04 twosnowman

这个问题一般都是代码造成的。。 你可以先更新最新的模型文件 ,再微调看看。如果还是这样,就是你的代码有问题了

cywjava avatar Apr 21 '23 01:04 cywjava

没有修改任何代码, 唯一的改动是把--model_name_or_path 从 chatglm-6b-model 改为chatglm-6b-int4-model, 否则启动training后,会被Killed

twosnowman avatar Apr 21 '23 02:04 twosnowman

使用LoRA微调方法不会忘记老知识,可以去 https://github.com/THUDM/ChatGLM-6B/blob/main/PROJECT.md 这里看,有很多基于LoRA微调的项目

ray-008 avatar Apr 24 '23 09:04 ray-008

我也是这样,所有问题都变成和广告相关.

eRoad-f2e avatar Apr 26 '23 13:04 eRoad-f2e

使用LoRA微调方法不会忘记老知识,可以去 https://github.com/THUDM/ChatGLM-6B/blob/main/PROJECT.md 这里看,有很多基于LoRA微调的项目

意思是使用ptuning微调后会忘记以前的知识?感觉不太合理,之前的模型经过1T的数据量训练,Adgen里数据量也就10万条。

realcarlos avatar Apr 27 '23 06:04 realcarlos

使用LoRA微调方法不会忘记老知识,可以去 https://github.com/THUDM/ChatGLM-6B/blob/main/PROJECT.md 这里看,有很多基于LoRA微调的项目

有个用chatglm做医疗问答的项目,作者的踩坑贴提到lora会遗忘已有知识,不过这个项目的微调数据集全是专业对话没有日常对话

jiayi37u avatar Apr 28 '23 08:04 jiayi37u

+1,我也遇到这样的问题,步骤就是按照官方给的 很离谱 求解

surviveMiao avatar May 07 '23 02:05 surviveMiao

+1

bmilkman avatar May 12 '23 16:05 bmilkman

+1

gospider007 avatar May 13 '23 13:05 gospider007

Duplicate of #403

zhangch9 avatar Aug 16 '23 11:08 zhangch9