chatglm_finetuning icon indicating copy to clipboard operation
chatglm_finetuning copied to clipboard

整体微调以后,领域内的知识记住了,但是问常规问题,比如你好,你叫什么,他也回答领域内的知识

Open heiheiwangergou opened this issue 1 year ago • 5 comments

企业微信截图_16825612262066 是我参数哪里设置的不对嘛,a100单卡,14000条qa数据 下面是训练参数 2b20251c-b619-408d-8f13-f3750ecf1c58 36c4aed50fce536b554a672e88240aa

'max_seq_length': 1024, # 如果资源充足,推荐长度2048 与官方保持一致
'max_target_length': 100,  # 预测最大长度, 保留字段

这两个参数会影响结果嘛

heiheiwangergou avatar Apr 27 '23 02:04 heiheiwangergou

+1

cywjava avatar Apr 27 '23 02:04 cywjava

+1

cristianohello avatar Apr 28 '23 03:04 cristianohello

是全量微调,还是lora训练?

lianrzh avatar Apr 30 '23 07:04 lianrzh

+1 尝试了全量微调、lora训练都试过了,都有灾难性遗忘的情况,灾难性遗忘的情况lora稍强一点,但两种训练方式的拟合效果都不好 训练数据只有300条,epoch: 1, max_seq_length: 2048,其他超参基本没动

@ssbuild

lxw0109 avatar May 10 '23 02:05 lxw0109

同问

liu459977653 avatar May 25 '23 11:05 liu459977653