ChatGLM-Efficient-Tuning icon indicating copy to clipboard operation
ChatGLM-Efficient-Tuning copied to clipboard

能否在同一模型上针对多任务进行多次微调,之前微调获得的能力是否能够保留?

Open Karenlyw opened this issue 1 year ago • 3 comments

RT,针对完全不同的任务,每一个都去训练单独的模型消耗比较大,基于同一个模型累加训练是否可行?原来学到的能力是否能够保留?如果可以,推荐用哪种微调方案呢?感谢~

Karenlyw avatar Jul 03 '23 03:07 Karenlyw

请学习灾难性遗忘的相关概念

hiyouga avatar Jul 03 '23 03:07 hiyouga

请学习灾难性遗忘的相关概念

感谢回答,但实验中发现模型在一次微调以后依然保留了原始模型的其他任务的能力,并没有发生灾难性遗忘。所以想知道多任务微调是否也具备类似的性质?

Karenlyw avatar Jul 03 '23 04:07 Karenlyw

我认为通过实验验证是最快的方法

hiyouga avatar Jul 03 '23 12:07 hiyouga

你是什么任务,我怎么觉得只要是微调都很容易出现灾难性遗忘呢?

HaKLMTT avatar Jul 04 '23 04:07 HaKLMTT

你是什么任务,我怎么觉得只要是微调都很容易出现灾难性遗忘呢?

有摘要任务,有抽取分类任务,试了一下增量微调,效果不太理想

Karenlyw avatar Jul 05 '23 02:07 Karenlyw