ChatGLM-Efficient-Tuning
ChatGLM-Efficient-Tuning copied to clipboard
full tuning 显存不足
4卡训练,在vicuna、baichuan都可以正常训练,但是chatglm2显存不足,max-length调到128以及batch size=1 还是不行
我也遇到了同样的问题
ChatGLM 对 ZeRO-3 的兼容性比较差。全量微调需要启用 ZeRO-2 并在 A100 80G * 3 上进行训练