首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Tensorflow:如何为多GPU模型并行编写干净的代码?

Tensorflow:如何为多GPU模型并行编写干净的代码?
EN

Stack Overflow用户
提问于 2017-01-23 02:20:34
回答 1查看 458关注 0票数 1

目前,我正在实现一个大型自定义模型,并参考tensorflow附带的CIFAR 10的多gpu示例。然而,我在此基础上编写的代码并不整洁,而且容易出错。例如,我必须找到每个可训练变量并添加"with tf.device('/cpu:0')“。

有没有更高效/更干净的方法来适应多gpu执行?

非常感谢您的支持。

EN

回答 1

Stack Overflow用户

发布于 2017-01-23 03:36:38

这是一个来自Rafal的example

你在塔楼上做一个循环,主体把塔构造成with tf.device(assign_to_gpu(i))。函数assign_to_gpu以不同的方式对待变量,并将它们赋给"ps-device“。

注意:我们发现,当GPU连接到p2p时,当变量保持为gpu:0而不是cpu:0时,训练速度更快

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41794545

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档