RCF-pytorch
RCF-pytorch copied to clipboard
batch_size
batch_size可以设置成其他值嘛?比如4,8,16等,为什么要是1呢
可以通过调整iter_size来设置 : 这个参数乘上你的train prototxt中的batch_size是你实际使用的batch size。 相当于读取batchsize*itersize个图像才做一下gradient decent。 这个参数可以规避由于gpu不足而导致的batchsize的限制 因为你可以用多个iteration做到很大的batch 即使单次batch有限 引用自https://blog.csdn.net/sdlypyzq/article/details/84030312
谢谢你的回答,我尝试设置batch_size为8,但是得到的loss非常大,几万,而且结果是全黑的,这是为什么呢
谢谢你的回答,我尝试设置batch_size为8,但是得到的loss非常大,几万,而且结果是全黑的,这是为什么呢
请问大佬是怎样改的batch_size,有没有修改83行 assert len(test_list) == len(test_loader), "%d vs %d" % (len(test_list), len(test_loader))