P-tuning-v2
P-tuning-v2 copied to clipboard
微调结果不收敛是什么原因?
从理论上觉得使用CHATGLM+PTUNING来做领域知识问答是可行的。不过我最近做了一些测试,发现我的微调结果不收敛,微调样本产生的效果不佳。不知道是我的方法有问题还是我微调样本太少。 目前我针对数据库服务器CPU使用率过高的一个单一问题,做了差不多1000个训练样本。不过从目前的训练效果来看,依然不是很好。请教一下,这方面有什么技巧吗?我是个新手,请多指教。