TransT icon indicating copy to clipboard operation
TransT copied to clipboard

训练时使用的GPU数量的问题

Open wjc0602 opened this issue 3 years ago • 5 comments

你好,我想问一下,如果我要是使用6个GPU进行训练的话,那训练使用的Batchsize和学习率应该怎么调整?

wjc0602 avatar Sep 01 '21 09:09 wjc0602

建议训500个epoch,第400个epoch下降学习率。初始学习率用默认的就可以,batchsize占满显存即可。所有epoch的样本数加起来建议为3-4千万

chenxin-dlut avatar Sep 18 '21 04:09 chenxin-dlut

请问如果使用四块1080Ti的显卡进行训练,正常大约需要多长时间呢?

gzc-tracking avatar Oct 03 '21 02:10 gzc-tracking

你好 ,请问您跑这个工程的训练了吗~请问训练代码中读入数据这块的absence.label和cover.label是指什么呢?期待您的回复~

Scr-w avatar Nov 23 '21 03:11 Scr-w

你好,我想问下两块卡怎么跑呢,在哪里修改

zx104972 avatar Dec 21 '21 09:12 zx104972

建议训500个epoch,第400个epoch下降学习率。初始学习率用默认的就可以,batchsize占满显存即可。所有epoch的样本数加起来建议为3-4千万

单卡训练时epoch和batch_size需要怎样调整才能得到好的效果呢?

Naughty-Galileo avatar Feb 17 '23 11:02 Naughty-Galileo