YrYang
YrYang
例子: "properties": { "id": { "type": "string", "array": True, "index": False }} 想把index从False改成True,支持吗
尝试把多轮对话数据格式做成下面的格式用DPO代码跑了一下lora,merge之后,发现推理速度变慢,而且推理会输出重复的内容。 代码部分只把"prompt": ["Question: " + question + "\n\nAnswer: " for question in examples["question"]]改成了"prompt": examples["question"],是不是还需要和多轮对话sft一样每轮对话结束后加结束符? {"question": "\n\nHuman:你好\n\nAssistant:你好\n\nHuman:你好\n\nAssistant:", "response_chosen": "您好", "response_rejected": "您好,有什么可以帮您的吗"} 使用的参数是: CUDA_VISIBLE_DEVICES=4,5,6 python dpo_training.py \ --model_type baichuan \ --model_name_or_path 经过sft的base模型...
请教大佬多轮对话指令微调的问题, 有大约50W条的数据集,每条数据2~20轮对话不等,指令微调epoch=1,2后,推理,前面几轮还算正常,随着对话轮次增加,llm倾向于回复重复的句子,请问是什么原因呢? 举例: human: 您好 gpt: 您好,有什么可以帮助您的 human:电视闪屏怎么办 gpt: 周围是否有大功率电器 human:没有 。。。 gpt: 请问还有其他可以帮助您的吗? human:没有 gpt:请问还有其他可以帮助您的吗? human: 没有了拜拜 gpt:请问还有其他可以帮助您的吗?