Batch_Parallel_LatticeLSTM
Batch_Parallel_LatticeLSTM copied to clipboard
冒昧請問一下這樣是有在訓練嗎?如果有,為何GPU資源沒有使用到呢?
環境:
GPU : RTX 2060
CUDA :
您可以先看看win上的torch能不能用cuda https://stackoverflow.com/questions/48152674/how-to-check-if-pytorch-is-using-the-gpu
再看看参数传的对不对(main里面的arg print打印靠前。也就是说print之后可能也有arg变化)