pytorch-lightning-template
pytorch-lightning-template copied to clipboard
Multi-GPU and distributed training support
这是pytorch-lightning默认支持的。 --gpus=N 即可,N为你的GPU数量。
如果加了 training_epoch_end 的实现,不需要在这个函数下面将所有的卡的loss gather到一起吗? 对于validation_epoch_end 不需要将所有卡的 结果 gather到一起吗?