Qwen1.5
Qwen1.5 copied to clipboard
Qwen1.5-MoE-A2.7B-Chat微调GPU利用率很低
LoRA指令微调,deepspeed设置为zero2,GPU利用率基本在30%~40%左右,已在AutoConfig里设置了output_router_logits=True
。非MoE模型正常。
运行环境:
除了利用率低,之前还出现过一个问题:Qwen1.5-MoE-A2.7B-Chat训练到80多steps时卡住,GPU利用率突然到99%,然后就一直保持这个状态。运行环境除了output_router_logits=True
没有设置外,其他都一样。设置了output_router_logits=True
后正常运行。
部署时遇到CUDA extension not installed。并且推理速度特别慢。各位大神如何解决?
全量finetune,ZeRO3,设置output_router_logits=True。训练过程中会突然卡住,GPU利用率突然到100%
部署时遇到CUDA extension not installed。并且推理速度特别慢。各位大神如何解决?
可能环境和CUDA版本不匹配,可能显存不够
全量finetune,ZeRO3,设置output_router_logits=True。训练过程中会突然卡住,GPU利用率突然到100%
感觉这版MoE还是有问题啊,我试其他的moe没有问题
能否给我一份finetune的数据集jsonl文件
全量finetune,ZeRO3,设置output_router_logits=True。训练过程中会突然卡住,GPU利用率突然到100%
请问有解决吗