ChatGLM-6B icon indicating copy to clipboard operation
ChatGLM-6B copied to clipboard

想保留原有的对话能力并增加现有的问题处理对话哪种更适合呢?lora还是ptuning??? 我还有个疑问,#413 说到ptuning微调之后就只支持当前任务了,这种同样是对话的任务微调之后之前的对话能力是否也会变差?如果想保留原有的对话能力并增加现有的问题处理对话是不是使用lora更适合?

Open cristianohello opened this issue 1 year ago • 10 comments

Is there an existing issue for this?

  • [X] I have searched the existing issues

Current Behavior

想保留原有的对话能力并增加现有的问题处理对话哪种更适合呢?lora还是ptuning???

我还有个疑问,https://github.com/THUDM/ChatGLM-6B/issues/413 说到ptuning微调之后就只支持当前任务了,这种同样是对话的任务微调之后之前的对话能力是否也会变差?如果想保留原有的对话能力并增加现有的问题处理对话是不是使用lora更适合?

Expected Behavior

想保留原有的对话能力并增加现有的问题处理对话哪种更适合呢?lora还是ptuning???

我还有个疑问,https://github.com/THUDM/ChatGLM-6B/issues/413 说到ptuning微调之后就只支持当前任务了,这种同样是对话的任务微调之后之前的对话能力是否也会变差?如果想保留原有的对话能力并增加现有的问题处理对话是不是使用lora更适合?

Steps To Reproduce

想保留原有的对话能力并增加现有的问题处理对话哪种更适合呢?lora还是ptuning???

我还有个疑问,https://github.com/THUDM/ChatGLM-6B/issues/413 说到ptuning微调之后就只支持当前任务了,这种同样是对话的任务微调之后之前的对话能力是否也会变差?如果想保留原有的对话能力并增加现有的问题处理对话是不是使用lora更适合?

Environment

- OS:
- Python:
- Transformers:
- PyTorch:
- CUDA Support (`python -c "import torch; print(torch.cuda.is_available())"`) :

Anything else?

想保留原有的对话能力并增加现有的问题处理对话哪种更适合呢?lora还是ptuning???

我还有个疑问,https://github.com/THUDM/ChatGLM-6B/issues/413 说到ptuning微调之后就只支持当前任务了,这种同样是对话的任务微调之后之前的对话能力是否也会变差?如果想保留原有的对话能力并增加现有的问题处理对话是不是使用lora更适合?

cristianohello avatar Apr 12 '23 06:04 cristianohello

我感觉无论是lora还是ptuning都会存在历史遗忘的问题,因为这二者本身还是微调的变形罢了

xxllp avatar Apr 13 '23 12:04 xxllp

实测,ptuning遗忘的很多,建议用lora,并且训练次数不能太多。

YYGe01 avatar Apr 14 '23 01:04 YYGe01

实测,ptuning遗忘的很多,建议用lora,并且训练次数不能太多。

lora会遗忘吗?

hanswang73 avatar Apr 14 '23 02:04 hanswang73

就算你从头到尾所有参数全部微调,也会有遗忘,lora相比ptuning会好点,但是ptuning做特定任务效果会好点。

YYGe01 avatar Apr 14 '23 03:04 YYGe01

就算你从头到尾所有参数全部微调,也会有遗忘,lora相比ptuning会好点,但是ptuning做特定任务效果会好点。

多谢!

hanswang73 avatar Apr 14 '23 03:04 hanswang73

实测,ptuning遗忘的很多,建议用lora,并且训练次数不能太多

实测 也会忘,好像不能步数太多

songsa1 avatar Apr 17 '23 07:04 songsa1

实测,ptuning遗忘的很多,建议用lora,并且训练次数不能太多

实测 也会忘,好像不能步数太多

但是步数少,感觉新东西学得不好,不知道是不是lora参数选的不对

FrankWhh avatar Apr 18 '23 11:04 FrankWhh

Lora 训练新知识,我试了一下几千步就可以了,要是几万步,反而推理结果更差

cywjava avatar Apr 22 '23 04:04 cywjava

你们batchsize都多大,accumulate是几

tqjack avatar Apr 25 '23 00:04 tqjack

用ptuning,8000条数据,训练epoch到了5点几,感觉调的有点呆了

Vector-Cross avatar Apr 25 '23 11:04 Vector-Cross

就算你从头到尾所有参数全部微调,也会有遗忘,lora相比ptuning会好点,但是ptuning做特定任务效果会好点。

你ptuning时用了多少条数据效果或不错?

sun1092469590 avatar May 13 '23 08:05 sun1092469590

那到底如何控制 这个遗忘呢, 我是万全按照他[P-Tuning v2] 的微调 参数 都没动

energy888666 avatar Aug 04 '23 07:08 energy888666