PyTorch-Tutorial
PyTorch-Tutorial copied to clipboard
Batch_size是否为1 比较合适?
如题。请问在训练过程中,batch_size一般为1吗?因为不同的样本似乎有不同的动作选择次数,一次性多个batch训练是不可行的,所以batch_size一般都是1,对吗?