HaiLongHuang

Results 2 issues of HaiLongHuang

### Is there an existing issue for this? - [X] I have searched the existing issues ### Current Behavior evaluate的时候,报这个错 在preprocess_function_eval中打印了input长度,发现每个batch长度不一致。 ### Expected Behavior _No response_ ### Steps To Reproduce...

### Is your feature request related to a problem? Please describe. 将领域内的多轮对话数据按照官网预测的例子进行组织了数据形式,进行全参数 model finetuing。 在ChatGLM6B基础上我们仅使用领域内的多轮对话数据使用全参数 model finetuing(非ptuning方式) 提供的方式进行微调。领域内数据共23万。 我们的对话组织形式 原始多轮对话:问题1->答案1->问题2->答案2 组织训练数据为:input:【round0】\n问:问题1,答:答案1 \n 【round1】\n 问:问题2 答:target:答案2。 现在我们观察到,在领域内数据BLUE是有提升的。但在公开数据集CLUE的阅读理解任务上,会有一部分例子输出会偏向于领域内,预测的输入中加入“【round0】”后更偏向领域内数据。 例子如下: 原始数据: input:阅读文章,回答问题:具体文章xxxx。问题:具体问题xxx。 label:埼玉县埼玉市南区七丁目...