Chinese-LLaMA-Alpaca
Chinese-LLaMA-Alpaca copied to clipboard
灾难性遗忘
请问各位大佬,你们在用自己的数据继续训练Plus模型,得到的内容会出现模型通用能力变差的情况吗
训练步骤是什么样的
在Chinese-Alpaca-Plus-13B的基础上,使用自己构造的领域内instruct data进行微调
在Chinese-Alpaca-Plus-13B的基础上,使用自己构造的领域内instruct data进行微调
基于源llama和chinese-llama-plus-lora的合并版本再训练alpaca可能会好些
基于源llama和chinese-llama-plus-lora的合并版本再训练alpaca可能会好些
感谢回复,我试试看
done