Chat-Haruhi-Suzumiya
Chat-Haruhi-Suzumiya copied to clipboard
训练、数据问题请教
关于模型base,3个问题麻烦请教下~
-
看了klon中的lora训练推理代码,我理解模型选择的chatglm2_lora base,是在chatglm2上基于silk-road/Chat_Suzumiya_Fusion数据集微调的的lora;但是Chat_Suzumiya_Fusion中只包括部分人物数据,生成一个新的人物,是直接抽取system prompt和对话记录后进行few-shot+知识库输出结果,还是需要将数据加入Chat_Suzumiya_Fusion数据重新训练呢?
-
形成模型输入格式:system prompt + story + history,Chat_Suzumiya_Fusion数据中应该只有前两个部分吧如下图,所以history在训练中没有,是推理中直接append上的,模型会将其作为story的一部分来理解?故事和历史的最大长度可以达到1500和1200,默认模型最大输入是2048?
- 英文数据silk-road/ChatHaruhi-from-RoleLLM中直接保存文本和向量了,这块的处理是只用到了ZenMoore/RoleBench中的profile数据而没用instructions数据吗?处理后的数据好像也不是直接按照diag_id进行划分的,想具体了解下处理逻辑,基于llama2训练个base,test几个英文人物~