chatglm_finetuning
chatglm_finetuning copied to clipboard
deepspeed如何设置可以避免OOM
请问,deepspeed可以如何设置参数支持模型全量微调,机器只有4张32g的V100,deepspeed里面提到32g最多可以支持13B模型的训练?默认deepspeed的配置使用的是stage2吗?
+1
+1