MLLM-Finetuning-Demo
MLLM-Finetuning-Demo copied to clipboard
作者您好! 您这里的训练逻辑是指: 先在llava-1.5-7b-hf上通过预训练自己的数据,然后合并模型,这个合并的模型叫做model1; 其次,在model1上进行微调,然后跟model1进行合并为模型model2;最终通过model2进行预测是么?
作者您好! 您这里的训练逻辑是指: 先在llava-1.5-7b-hf上通过预训练自己的数据,然后合并模型,这个合并的模型叫做model1; 其次,在model1上进行微调,然后跟model1进行合并为模型model2;最终通过model2进行预测是么?