LexiconAugmentedNER icon indicating copy to clipboard operation
LexiconAugmentedNER copied to clipboard

关于GPU使用率问题,以及LSTM比Transformer速度”更快“的问题

Open yolanda182 opened this issue 3 years ago • 3 comments

你好👋打扰了!我发现了代码在GPU服务器上跑的时候利用率只有百分之三十,不知道是否是这个原因代码整体的运行速度很慢。 另外还有一个疑问就是序列编码层用LSTM比用Transformer的时候还要快(我是通过您代码输出的Speed和Time发现LSTM会比Transformer要快,具体运行的结果如下面所示)

LSTM: image

Transformer: image

Transformer的时候GPU使用信息: image

最后还有一个问题,就是您论文里的Computational Efficiency Study中的 Inference speed应该不是这个输出的speed对吧?

(大佬们的论文真的太棒了!希望能有机会和您们交流下这几个问题🙏🏻,感激不尽!谢谢!)

yolanda182 avatar Dec 23 '21 07:12 yolanda182

您好,GPU使用率低或许是因为batch size开得比较小。transformers和LSTM的batch size可能也设置得不同。论文中计算的Computational Efficiency是decode时候的时间,也就是截图中的test speed(instance/s)

rtmaww avatar Jan 20 '22 14:01 rtmaww

你好,请问是怎么切换编号为1的gpu?需要改哪些地方 @yolanda182

mudongla avatar Feb 28 '23 08:02 mudongla

直接在代码加:torch.cuda.set_device(1)

Yan-cc-l avatar Mar 03 '23 06:03 Yan-cc-l