TransT
TransT copied to clipboard
训练时使用的GPU数量的问题
你好,我想问一下,如果我要是使用6个GPU进行训练的话,那训练使用的Batchsize和学习率应该怎么调整?
建议训500个epoch,第400个epoch下降学习率。初始学习率用默认的就可以,batchsize占满显存即可。所有epoch的样本数加起来建议为3-4千万
请问如果使用四块1080Ti的显卡进行训练,正常大约需要多长时间呢?
你好 ,请问您跑这个工程的训练了吗~请问训练代码中读入数据这块的absence.label和cover.label是指什么呢?期待您的回复~
你好,我想问下两块卡怎么跑呢,在哪里修改
建议训500个epoch,第400个epoch下降学习率。初始学习率用默认的就可以,batchsize占满显存即可。所有epoch的样本数加起来建议为3-4千万
单卡训练时epoch和batch_size需要怎样调整才能得到好的效果呢?