首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >深度学习CNN吃VRAM

深度学习CNN吃VRAM
EN

Stack Overflow用户
提问于 2020-01-31 19:51:47
回答 1查看 313关注 0票数 0

我最近开始构建自己的小型深度学习设备,配备了ryzen 53600处理器、32 GPU内存和8gp VRam的RTX2080Super

使用tensorflow处理CNN(这是我的大部分工作)时,我发现大部分VRam几乎立即被占用(7.8 GPU中使用了7.8 GPU),而GPU利用率约为35%

为了与tesnofrflow v2兼容,我安装了最新的驱动程序并运行了CUDA v10.0。

这对于CNN处理图像来说是正常的吗?我是否应该投资更多的VRam而不是更快的图形处理器(一个多图形处理器系统,有几个使用过的1080Ti或2060超级卡)

有什么想法?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-01-31 19:59:46

占用GPU的不是你的CNN,而是Tensorflow。默认情况下,Tensorflow会在代码运行之前占用所有可用的GPU内存,即使不需要这些内存。

您可以使用以下代码片段(GPU 0,TF2.*)使Tensorflow只占用所需的内存:

代码语言:javascript
复制
import tensorflow as tf
gpu_devices = tf.config.experimental.list_physical_devices('GPU')
tf.config.experimental.set_memory_growth(gpu_devices[0], True)

set_memory_growth选项阻止Tensorflow保留所有内存。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/60003385

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档