thewintersun
thewintersun
不同的服务器上执行不同的命令。 你这个是因为这个节点等待其他节点准备 好。
这个我的工作中暂时还没这个方面的需求,还没有研究过。
CUDA_VISIBLE_DEVICES是linux的一个环境变量,windows上没有这个,所以不行。
这个我忘记了,毕竟时间太长了。。。。。
这个不知道了,1.0版本之后的就没测试了, 不过个人觉得既然用了分布式的了,就不用太考虑同步的方式了, 直接就用异步的方式了。
你用前面的那个环境变量, CUDA_VISIBLE_DEVICES=N,就表示那台机器上是哪个gpu了。
那就是多GPU版本了,这个可以参考tensorflow源码里的cifar的那个项目里,有具体的实现。
没Gpu还真没试过。 不过按照tensorflow的官方的说明, 没gpu的话,就会自动使用cpu来计算的。 可以在worker的节点把CUDA_VISIBLE_DEVICES这个环境变量赋值去掉试一试 我也没试过,不好意思。 @guotong1988
端口本来是通的吗? 感觉命令没啥问题啊。
telnet ip port