luckily

Results 1 comments of luckily

> > 大佬 lora微调完后合并的脚本有吗 > > @zhangfan-algo 大佬您解决了吗 > > @czczup 我也想请教一下大佬,lora finetune脚本中,训练会在一定步数的iteration和结束训练后,直接使用huggingface的trainer的save_model(),saved后的model是包含原始模型weight和lora weight的。但不能直接用这个saved model ckpt来做推理,结果会直接乱掉belike: \x\x\x\x。 > > 请问有什么比较好的方法进行处理么 @czczup 这个问题如何解决?