pytorch-distributed
pytorch-distributed copied to clipboard
多卡显存占用不均衡
trafficstars
我run distributed.py ,发现显存占用不均衡,主卡占用10GB,另外3个卡占用8GB。 请问怎么解决?
请问这个问题解决了吗?