ElegantRL
ElegantRL copied to clipboard
请教一个多GPU训练的问题
我看文档说支持多GPU训练,比如tutorial_BipedalWalker-v3.py里面的例子 args.learner_gpus = [0, 1, 2, 3] train_agent_multiprocessing(args) 然后我看了一下源码,貌似learner_gpus这个参数后来根本没有用过 train_agent_multiprocessing这里面好像也没有对gpu_id分配的管理 不知道我是不是漏了关键代码了,请问这个多GPU训练是怎么实现的呢?谢谢。
更新了对 vectorized env 的支持后,我正在重写 多GPU训练模块 并整理了代码 https://github.com/AI4Finance-Foundation/ElegantRL_Solver/issues/43#issuecomment-1418404059
多GPU训练,将会通过 DataParallel 的 ring AllReduce 实现