首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在tensorflow中使用分布式多GPU推理的最佳方式是什么?

在tensorflow中使用分布式多GPU推理的最佳方式是什么?
EN

Stack Overflow用户
提问于 2018-02-07 00:14:10
回答 1查看 535关注 0票数 0

我是Tensorflow的新手,我正在致力于将测试图像分发到多个GPU。我读过很多Stack overflow answers和Github示例,我认为可能有两种方法。

1)使用tf.FIFOQueue()来馈送每个GPU镜像,但是很多答案都不推荐使用队列(由于新的tf.data接口)。而且它有一些问题(https://github.com/tensorflow/tensorflow/issues/8061)

2)使用tf.data接口。我不确定这个API是否支持GPU。在这个问题(https://github.com/tensorflow/tensorflow/issues/13610)中,使用GPU的输入管道似乎还不能支持tf.data馈送。

分布式Tensorflow不在我的考虑范围内(因为我们的服务器模型和规模都不是那么大)

如果有人能给我任何建议,我将不胜感激。

EN

回答 1

Stack Overflow用户

发布于 2018-02-17 02:09:34

使用tf.datatf.data应用编程接口旨在取代队列的几乎所有功能,并使一切变得更容易和更高性能。

它还可以将数据馈送到GPU。您链接到的第二个问题只是说预处理不会在GPU上发生,但数据将在CPU上处理,然后发送到多个GPU。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48647323

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档