[email protected]

Results 2 comments of [email protected]

从公开的数据和脚本来看,这个BERT的测试主要是BERT Base的中文模型 pre-train,Max Seq Len = 128,单卡的batch size 是32。 性能是 3.114 个steps/s, 所以8 * V100 性能应该是 3.114 * 32 * 8 = 797 sequence/s 我的理解应该没错吧。但是我看到在脚本“https://github.com/PaddlePaddle/benchmark/blob/master/NeuralMachineTranslation/BERT/fluid/train/run.sh#L42” 之中max bs = 78。 不知道如果使用最大的bs的时候性能是多少呢?...

@Xreki 谢谢。另外这个BERT的测试没有用batch size 78是为啥?用78的话,应该性能可以跑的更高啊?