ChatGLM-6B icon indicating copy to clipboard operation
ChatGLM-6B copied to clipboard

[BUG/Help] <通过广告词训练之后感觉其他的回答认知出现了问题~>

Open manyuehefeng opened this issue 1 year ago • 15 comments

Is there an existing issue for this?

  • [X] I have searched the existing issues

Current Behavior

1680761544592 1680761823941

通过广告词训练之后感觉其他的回答认知出现了问题,请问这是正常的吗

Expected Behavior

No response

Steps To Reproduce

通过广告词训练之后感觉其他的回答认知出现了问题,请问这是正常的吗

Environment

- OS:
- Python:
- Transformers:
- PyTorch:
- CUDA Support (`python -c "import torch; print(torch.cuda.is_available())"`) :

Anything else?

No response

manyuehefeng avatar Apr 06 '23 06:04 manyuehefeng

这是正常的 因为我微调后也这样了

976311200 avatar Apr 06 '23 06:04 976311200

这是正常的 因为我微调后也这样了 这显然不正常。

dragononly avatar Apr 06 '23 07:04 dragononly

这是正常的 因为我微调后也这样了 这显然不正常。

如果你理解ptuning在干什么,这显然正常。 本来一个对话模型,现在把输入变成非流畅文本,每层还额外加入prompt,怎么可能保留之前的能力。 如果你需要保留对话能力,肯定要把输入指令全部改写成人话,并且用lora的方式仅微调q、v来减少影响。我理解ptuning这种引入额外结构的根本不适用在这种场景下。

JaheimLee avatar Apr 06 '23 08:04 JaheimLee

这是正常的 因为我微调后也这样了 这显然不正常。

如果你理解ptuning在干什么,这显然正常。 本来一个对话模型,现在把输入变成非流畅文本,每层还额外加入prompt,怎么可能保留之前的能力。 如果你需要保留对话能力,肯定要把输入指令全部改写成人话,并且用lora的方式仅微调q、v来减少影响。我理解ptuning这种引入额外结构的根本不适用在这种场景下。 如果这样的话微调法,没有任何意义了。

dragononly avatar Apr 06 '23 08:04 dragononly

全量或lora微调输入是问题和答案拼起来吗,输出仅仅是答案?

smartparrot avatar Apr 06 '23 08:04 smartparrot

这是正常的 因为我微调后也这样了 这显然不正常。

如果你理解ptuning在干什么,这显然正常。 本来一个对话模型,现在把输入变成非流畅文本,每层还额外加入prompt,怎么可能保留之前的能力。 如果你需要保留对话能力,肯定要把输入指令全部改写成人话,并且用lora的方式仅微调q、v来减少影响。我理解ptuning这种引入额外结构的根本不适用在这种场景下。

没错,直观理解起来就是你通过p-tuning之后,等于在基座模型之上加了一层全连接,现在它只支持当前的任务了。

336655asd avatar Apr 07 '23 08:04 336655asd

这是正常的 因为我微调后也这样了 这显然不正常。

如果你理解ptuning在干什么,这显然正常。 本来一个对话模型,现在把输入变成非流畅文本,每层还额外加入prompt,怎么可能保留之前的能力。 如果你需要保留对话能力,肯定要把输入指令全部改写成人话,并且用lora的方式仅微调q、v来减少影响。我理解ptuning这种引入额外结构的根本不适用在这种场景下。

没错,直观理解起来就是你通过p-tuning之后,等于在基座模型之上加了一层全连接,现在它只支持当前的任务了。

那如何解决这个问题呢。

dragononly avatar Apr 07 '23 09:04 dragononly

这是正常的 因为我微调后也这样了 这显然不正常。

如果你理解ptuning在干什么,这显然正常。 本来一个对话模型,现在把输入变成非流畅文本,每层还额外加入prompt,怎么可能保留之前的能力。 如果你需要保留对话能力,肯定要把输入指令全部改写成人话,并且用lora的方式仅微调q、v来减少影响。我理解ptuning这种引入额外结构的根本不适用在这种场景下。

没错,直观理解起来就是你通过p-tuning之后,等于在基座模型之上加了一层全连接,现在它只支持当前的任务了。

那如何解决这个问题呢。

改成lora。。

suc16 avatar Apr 07 '23 09:04 suc16

这是正常的 因为我微调后也这样了 这显然不正常。

如果你理解ptuning在干什么,这显然正常。 本来一个对话模型,现在把输入变成非流畅文本,每层还额外加入prompt,怎么可能保留之前的能力。 如果你需要保留对话能力,肯定要把输入指令全部改写成人话,并且用lora的方式仅微调q、v来减少影响。我理解ptuning这种引入额外结构的根本不适用在这种场景下。

没错,直观理解起来就是你通过p-tuning之后,等于在基座模型之上加了一层全连接,现在它只支持当前的任务了。

那如何解决这个问题呢。

改成lora。。

lora在我这里也一样影响 之前的回答,以前的回答内容都 乱了。。

cywjava avatar Apr 08 '23 15:04 cywjava

这是正常的 因为我微调后也这样了 这显然不正常。

如果你理解ptuning在干什么,这显然正常。 本来一个对话模型,现在把输入变成非流畅文本,每层还额外加入prompt,怎么可能保留之前的能力。 如果你需要保留对话能力,肯定要把输入指令全部改写成人话,并且用lora的方式仅微调q、v来减少影响。我理解ptuning这种引入额外结构的根本不适用在这种场景下。

没错,直观理解起来就是你通过p-tuning之后,等于在基座模型之上加了一层全连接,现在它只支持当前的任务了。

那如何解决这个问题呢。

改成lora。。

lora在我这里也一样影响 之前的回答,以前的回答内容都 乱了。。

lora在我这边试没这个问题。而且lora的有效性,搞alpaca-lora的人都验证过了。

suc16 avatar Apr 08 '23 17:04 suc16

这是正常的 因为我微调后也这样了 这显然不正常。

如果你理解ptuning在干什么,这显然正常。 本来一个对话模型,现在把输入变成非流畅文本,每层还额外加入prompt,怎么可能保留之前的能力。 如果你需要保留对话能力,肯定要把输入指令全部改写成人话,并且用lora的方式仅微调q、v来减少影响。我理解ptuning这种引入额外结构的根本不适用在这种场景下。

没错,直观理解起来就是你通过p-tuning之后,等于在基座模型之上加了一层全连接,现在它只支持当前的任务了。

那如何解决这个问题呢。

改成lora。。

lora在我这里也一样影响 之前的回答,以前的回答内容都 乱了。。

lora在我这边试没这个问题。而且lora的有效性,搞alpaca-lora的人都验证过了。

请问lora 用的哪个项目呢

songsa1 avatar Apr 10 '23 03:04 songsa1

@songsa1 推荐友情链接里的 chatglm-tuning

suc16 avatar Apr 10 '23 06:04 suc16

@songsa1 推荐友情链接里的 chatglm-tuning

请问,你用过lora跑过 这个广告数据集么,

yangliuIOC avatar Apr 10 '23 11:04 yangliuIOC

@songsa1 推荐友情链接里的 chatglm-tuning

请问,你用过lora跑过 这个广告数据集么,

肯定没啊。。。不过lora也会有复读机情况发生。

suc16 avatar Apr 11 '23 01:04 suc16

修改下train.sh 的学习率 LR=1e-4 广告词的应该就可以跑起来了。

qq446840178 avatar Jun 16 '23 06:06 qq446840178

修改下train.sh 的学习率 LR=1e-4 广告词的应该就可以跑起来了。

好玄学,我自己跑法律问题,1e-4,完全学不到东西,用原本的2e-2,效果才比较好。

SZ-ing avatar Jul 03 '23 06:07 SZ-ing

Duplicate of #403

zhangch9 avatar Aug 16 '23 06:08 zhangch9