首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Apache mod_wsgi django调用keras模型时,如何释放占用的GPU内存?

Apache mod_wsgi django调用keras模型时,如何释放占用的GPU内存?
EN

Stack Overflow用户
提问于 2017-05-12 06:37:52
回答 3查看 18.3K关注 0票数 15

我的服务器配置如下:

  1. Apache2.4.23.
  2. Mod_wsgi 4.5.9

通过使用Django框架和apache服务器,我们调用Keras深度学习模型。和模型调用成功后,模型一直运行在GPU内存中,除非关闭服务器,否则无法释放GPU内存。

那么,在通过Apache+Mod_wsgi+Django调用Keras模型时是否有任何方法来控制GPU内存的发布?

谢谢!

运行时内存占用屏幕截图

EN

回答 3

Stack Overflow用户

回答已采纳

发布于 2017-05-17 07:46:01

代码语言:javascript
复制
from keras import backend as K
K.clear_session()

这将清除当前会话(图),因此应该从GPU中删除陈旧的模型。如果它没有工作,你可能需要‘模型’,并重新加载它。

票数 14
EN

Stack Overflow用户

发布于 2018-09-16 13:59:49

对于那些无法让K.clear_session()发挥作用的人,有一种替代的解决方案:

代码语言:javascript
复制
from numba import cuda
cuda.select_device(0)
cuda.close()

Tensorflow只是将内存分配给GPU,而CUDA负责管理GPU内存。

如果在用K.clear_session()清除所有图形之后,CUDA拒绝释放GPU内存,那么您可以使用cuda库直接控制CUDA来清除GPU内存。

票数 19
EN

Stack Overflow用户

发布于 2022-05-21 01:54:35

代码语言:javascript
复制
from numba import cuda
device = cuda.get_current_device()
device.reset()
票数 -1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43930871

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档