TextSum
TextSum copied to clipboard
请问batch_size=8,仍有这个问题
CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 11.91 GiB total capacity; 10.84 GiB already allocated; 205.62 MiB free; 10.87 GiB reserved in total by PyTorch)
但是显示的0号GPU并没有进程 23% 36C P8 11W / 250W | 0MiB / 12194MiB | 0% Default | | | | N/A |
你把batch size 调成1试试
呜呜呜batchsize设成1是可以的!看来我的GPU还是太垃圾了