首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在推理的同时从记忆中消失

在推理的同时从记忆中消失
EN

Stack Overflow用户
提问于 2022-01-13 13:00:32
回答 1查看 1.6K关注 0票数 0

我认为这是一个非常基本的问题,我很抱歉,因为我是非常新的火把。我试图找出图像是被操纵的还是不使用MantraNet的。在运行2-3个推论之后,我会将CUDA从内存中提取出来,然后在重新启动内核之后也会得到相同的错误:错误如下所示:

RuntimeError:库达内存不足。尝试分配616.00 MiB (GPU0;4.00 GiB总容量;1.91 GiB已经分配;503.14 MiB空闲;1.93 GiB被PyTorch总共保留)如果保留内存是>>分配的内存,尝试设置max_split_size_mb以避免碎片化。请参阅内存管理和PYTORCH_CUDA_ALLOC_CONF文档

“试图分配内存(在这里是616.00 MiB)”一直在变化。我检查了GPU的统计数据,它在我试图进行推断时突然上升。在tensorflow中,我知道我们可以通过定义一个上限来控制内存的使用,是否有类似的情况可以尝试呢?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2022-01-21 07:23:27

所以在推断单个图像的过程中,我意识到我无法将我的图像安装在我正在使用的gpu中,所以在将图像调整到一个特定的值之后,我可以在不面临任何内存问题的情况下进行推断。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/70697046

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档