MedicalGPT
MedicalGPT copied to clipboard
关于merge模型的格式问题
Describe the Question
Please provide a clear and concise description of what the question is. 感谢分享工作! SFT训练还没结束时,我选了其中一个保存的checkpoint,使用merge_peft_adapter.py融合llama2-7B和这个lora model,但是最终融合的文件后缀是这样的model-00001-of-00002.safetensors,很奇怪,我想在这个融合模型基础上继续做SFT就不行了,不知道为何。。。
base_model.save_pretrained(output_dir, max_shard_size='10GB', safe_serialization=True) 改为 base_model.save_pretrained(output_dir, safe_serialization=False)
感谢!