首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Tensorflow如何支持Cuda流?

Tensorflow如何支持Cuda流?
EN

Stack Overflow用户
提问于 2016-03-19 07:11:38
回答 1查看 2.7K关注 0票数 13

Tensorflow是自动利用Cuda流在单个GPU上并行执行计算图,还是应该手动将流分配给操作/张量?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-03-19 23:43:54

目前,TensorFlow只使用一个计算流和多个复制流。一些内核可能选择使用多个流进行计算,同时维护单个流的语义。

我们的实验表明,自动支持多流并不能带来很大的性能提高,因为我们的大多数内核都足够大,可以利用GPU中的所有处理器。但是,启用多流将使我们当前的设计无法积极地回收GPU内存。

这是我们今后可能会重新考虑的决定。如果发生这种情况,TensorFlow可能会自动将操作系统/内核分配给不同的Cuda流,而不会将它们公开给用户。

票数 12
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36098947

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档