jinhui
Results
2
comments of
jinhui
> 主要是因为这个脚本可以同时评测Qwen-VL和Qwen-VL-Chat模型哈,因为Qwen-VL的预训练模型没有ChatML格式。 好的,感谢回复。想进一步请教下有没有基于ChatML进行评测过哇。我自己用llava1.5-instruct数据全部处理成ChatML格式然后做sft,但是在textvqa上进行评测发现基于chatML格式的评测效果远高于"{}{} Answer:"。这个可能是我把所有数据全部处理成ChatML格式的原因么?
> 在我们的预训练阶段,由于不打开LLM,训练坐标难以收敛;在SFT阶段打开了LLM,大量的坐标训练会显著破坏LLM的原始语言能力。 嗯嗯,感谢您的回复。。这里主要是发现internvl chat demo在一些多列场景,internvl也能够按列输出,感觉和预训练的(按行输出)数据组织不太一致,请问这里sft数据有加上这种按语义输出的精标数据么?