系统信息
描述这个问题
我想要进行一次关于对象检测的分布式培训。首先,我通过在命令中设置'model_main.py‘来运行文件'TF_CONFIG’,它运行得很顺利。这是运行分布式培训的正确方式吗?但这种方式似乎是一种异步训练。为了运行同步培训,我将'RunConfig‘设置为blow,正如它在分配策略中提到的
config = tf.estimator.RunConfig(train_distribute=tf.contrib.distribute.CollectiveAllReduceStrategy())它报告说:
AttributeError:“模块”对象没有属性“CollectiveAllReduceStrategy”。
tensorflow对象检测支持分布式策略吗?如果是,使用分发策略和不使用分发策略有什么区别?如果没有,还有其他方法来运行同步培训吗?
发布于 2019-01-09 03:50:44
您应该更新tensorflow版本的>= 1.11
https://stackoverflow.com/questions/53627655
复制相似问题