LLaMA-Factory
LLaMA-Factory copied to clipboard
为什么我的lora微调后生产的模型大小都一样呢我修改examples的数量也是一样
Reminder
- [X] I have read the README and searched the existing issues.
Reproduction
我使用deepspeed进行的微调 然后我训练不同的数据集 adapter_model.safetensors 也是一样大这是怎么回事
Expected behavior
No response
System Info
No response
Others
No response
模型大小跟数据集没有关系
好的谢谢