腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
如何在tensorflow中释放
GPU
内存?( `allow_growth`→`allow_shrink`?)
我用
GPU
训练了很多
模型
。我想调优网络的架构,所以我对不同的
模型
进行了顺序的训练,以比较它们的性能(我使用的是keras-tuner)。 问题是有些
模型
非常小,而另一些则非常
大
。我不想把所有的
GPU
内存分配给我的培训,而只是我需要的数量。我有TF_FORCE_
GPU
_ALLOW_GROWTH到true,这意味着当一个
模型
需要大量内存时,
GPU
就会分配它。然而,一旦
大
模型
已经训练,内存将不会释放,即使
浏览 7
提问于2022-10-25
得票数 1
2
回答
使用
GPU
训练
模型
我有一点使用
GPU
来训练
模型
的知识。我正在使用scikit-learn中的K-means来训练我的
模型
。由于我的数据非常
大
,是否可以使用
GPU
训练此
模型
以减少计算时间?或者你能推荐一些使用
GPU
能力的方法吗?提前谢谢你。
浏览 2
提问于2017-02-01
得票数 0
1
回答
是否有可能在tensorflow中将一个网络分割成多个
GPU
?
我计划运行一个非常
大
的递归网络(例如,2048x5),是否可以在tensorflow中的一个
GPU
上定义一个层?如何实施该
模型
才能达到最佳的效率。据我所知,
GPU
或
GPU
-CPU-
GPU
之间的通信存在开销.
浏览 4
提问于2016-03-30
得票数 9
回答已采纳
3
回答
跨多个
GPU
分发Keras
模型
我正在尝试创建一个非常
大
的Keras
模型
,并将其分布在多个
GPU
上。需要说明的是,我并不是想把同一
模型
的多个副本放在多个
GPU
上;我是想把一个
大
模型
放在多个
GPU
上。我一直在使用Keras中的multi_
gpu
_model函数,但基于我在执行此操作时遇到的大量内存不足错误,它似乎只是复制了
模型
,而不是像我希望的那样分发它。例如,tf.contrib.distribute中的哪种分发策略可以让我以我想要的方式有效地批量
浏览 48
提问于2019-02-06
得票数 0
回答已采纳
2
回答
如何在
GPU
之间分配操作系统
我正在运行一个非常
大
的Tensorflow
模型
的谷歌云ml引擎。当使用缩放层basic_
gpu
(使用batch_size=1)时,我会得到以下错误: 然而,我记得我读到
GPU
之间的通信是缓慢的,并且会在训练中造成瓶颈。这是真的吗?如果
浏览 9
提问于2017-12-15
得票数 2
回答已采纳
1
回答
提高tensorflow服务中超大输入输出图像的io性能
我们有tensorflow的
模型
,它以uint16格式作为输入非常
大
的图像(>40 model )。
模型
输出相同大小的图像,并运行自定义编译tf-服务与
GPU
。最大的问题似乎与图像大小有关,因为
GPU
推断需要1s,而整个HTTP请求在本地tf上运行~17s --与SSD驱动器一起服务。我们的
模型
输出tf.image.encode_png,它被正确地命名为'_bytes‘,这样tf服务就可以正确地将它编码为base64 。从b64解码这个图像需要2.5s。由于json编码,
浏览 2
提问于2020-02-28
得票数 1
回答已采纳
1
回答
基于Tensorflow的分布式DL
模型
假设我想用Tensorflow开发和训练一个
大
的端到端深度学习
模型
(1.15,因为遗留的原因)。对象复杂,可以提取的特征类型很多:固定长度的数值特征向量、序列、无序集等。因此,该
模型
将包含许多子模块来处理各种类型的特征。在
GPU
之间传输计算结果的成本会有多高?是自动的,对吧? 考虑到变量被放置在不同的
浏览 0
修改于2020-02-14
得票数 1
1
回答
Tensorflow中有没有等同于torchsummary的东西?
我使用
GPU
在一个大小为55 on的数据集上运行一些非常
大
的深度学习
模型
。如果我使用一个大于1的批处理大小,我会得到一个资源耗尽错误。即使批处理大小为1,我也会得到分割错误。
GPU
内存为10 of,服务器具有32 of的RAM。 有没有办法让我知道
GPU
中的数据量(批处理大小为1)会有多大?我正在使用tf.Keras来拟合
模型
。
浏览 32
提问于2021-08-10
得票数 0
2
回答
如何增加谷歌云AI笔记本
GPU
内存
我有一个相当
大
的
模型
,我试图运行(30 GB的内存最低),但每次我启动一个新的实例,我可以调整CPU内存,而不是
GPU
。谷歌的人工智能笔记本服务有办法增加
GPU
的内存吗? 谢谢你的帮助。
浏览 6
提问于2020-03-13
得票数 1
回答已采纳
2
回答
PyTorch在Windows下按预期运行,但在Ubuntu下的较大图像上失败
我训练过一个用于图像分割的segmentation_models_pytorch.PSPNet
模型
。result = model.predict(image_tensor[:, :, y:y+384, x:x+384])在Windows环境下,该
模型
可以处理25
浏览 11
提问于2022-11-03
得票数 0
回答已采纳
5
回答
如何计算最佳批次尺寸
如果我减少了
模型
中的批次大小或神经元数量,它就运行得很好。 是否有一种基于
模型
和
GPU
内存计算最佳批处理大小的通用方法,这样程序就不会崩溃?简而言之:我希望在我的
模型
中尽可能
大
的批处理大小,这将适合我的
GPU
内存,不会使程序崩溃。
浏览 3
修改于2022-07-18
得票数 40
回答已采纳
1
回答
TensorFlow图形处理器内存
我有一个非常
大
的深度神经网络。当我尝试在
GPU
上运行它时,我得到"OOM当分配“。但当我屏蔽
GPU
并在CPU上运行时,它可以工作(与小型号相比,速度大约慢100倍)。我的问题是,tenosrflow中是否有任何机制可以让我在
GPU
上运行
模型
。我假设CPU使用虚拟内存,所以它可以随心所欲地分配,并在缓存/RAM/磁盘之间移动(颠簸)。在Tensorflow和
GPU
上有相似的东西吗?即使它比常规
GPU
运行速度慢10倍,这也会对我有所帮助 谢谢
浏览 1
提问于2018-06-16
得票数 1
1
回答
PyTorch:为什么运行output =model(映像)需要这么多
GPU
内存?
在试图理解为什么我的PyTorch
模型
的最大批处理大小是有限的时,我注意到使用最多内存的不是
模型
本身,也不是将张量加载到
GPU
中。当第一次生成预测时,大部分内存都会耗尽,例如训练循环中的以下一行:其中图像是一些输入张量,
模型
是我的PyTorch
模型
。在运行该行之前,我有大约9GB的
GPU
内存可用,然后我降低到2.5GB (在运行loss = criterion(outputs, labels)之后,它进一步下降到1GB可用)。据我所知,<e
浏览 3
提问于2022-05-27
得票数 4
回答已采纳
0
回答
YOLO - tensorflow可以在cpu上运行,但不能在
gpu
上运行
我已经使用我的
GPU
- Nvidia 1060 3 3Gb训练过的
模型
使用了YOLO检测,一切工作正常。 现在,我正在尝试使用参数生成自己的
模型
--
gpu
1.0。Tensorflow可以看到我的图形处理器,因为我可以在开始时读到这些通信:"name: GeForce GTX1060
大
调:6小调:1 memoryClockRate(GHz):1.6705“"totalMemory后来,当程序加载数据并试图开始学习时,我得到了以下错误:“无法从设备分配832.51M (87295232
浏览 23
修改于2017-12-02
得票数 1
1
回答
如何训练比
GPU
内存更大的TF
模型
?
我想使用TF2,最好是EfficientDet D7网络来训练一个大型目标检测
模型
。对于我的16 GB内存的Tesla P100卡,我遇到了一个“内存不足”异常,即显卡上没有足够的内存可以分配。如果我有多个
GPU
,那么TF
模型
将被拆分,以便填满两个卡的内存,这是正确的吗?因此,在我的情况下,使用第二张16 GB的Tesla卡,我在训练期间总共将拥有32 GB?如果是这样的话,我可以使用多个
GPU
的云提供商也是如此吗? 此外,如果我错了,在训练期间为多个
GPU
拆分一个
模型
将不起作用,那么还
浏览 18
提问于2021-03-03
得票数 0
回答已采纳
1
回答
GPU
+ CPU Tensorflow训练
设置 我发现我的
GPU
使用量非常小(200 MB),这意味着我所有的培训都是在CPU上进行的。我所期待的是,em
浏览 0
提问于2016-11-15
得票数 1
2
回答
如何使用对
GPU
来说太大的NN体系结构?
我想要实现一个
模型
,实际上是两个神经网络叠加在一起。然而,这两个架构的大小太大,不能同时适用于
GPU
。我的想法如下:从
GPU
卸载第一个
模型
,加载第二个
模型
从
GPU
卸载第二个
模型
我其实不需要训练第一个模特,因为它是预先训练的编辑 我已经尝试过先计算整个数据集的第一个
模型
的输出,然后使用它作为第二个数据集的输入。但是,第一
浏览 0
修改于2020-06-16
得票数 4
回答已采纳
1
回答
如何测量(手动)我的
GPU
内存已使用/可用
我正在通过创建不同的
模型
并对其进行测试来尝试Tensorflow。我现在遇到的问题是,在我面对OOM (内存不足)错误之前,我不清楚我的
模型
可能有多大。但如果我能测量我的
模型
占用了多少内存,那就太好了。ECC ||==============+--------------------------------------------------------
浏览 12
修改于2019-09-13
得票数 2
2
回答
在单个图形处理器上运行两个不同的独立PyTorch程序
我有一个16
GPU
内存的NVIDIA
GPU
。我必须运行两个不同的(独立的;意味着两个不同的问题) Python程序:一个是vision类型的任务,另一个是NLP任务)。我已经测试过,程序1
大
约需要5 5GB的
GPU
内存,其余的都是免费的。如果我运行这两个程序,会不会影响
模型
的性能,或者会导致任何进程冲突?
浏览 5
提问于2020-12-22
得票数 2
1
回答
在tensorflow中使用分布式多
GPU
推理的最佳方式是什么?
我是Tensorflow的新手,我正在致力于将测试图像分发到多个
GPU
。我读过很多Stack overflow answers和Github示例,我认为可能有两种方法。1)使用tf.FIFOQueue()来馈送每个
GPU
镜像,但是很多答案都不推荐使用队列(由于新的tf.data接口)。而且它有一些问题() 2)使用tf.data接口。我不确定这个API是否支持
GPU
。在这个问题()中,使用
GPU
的输入管道似乎还不能支持tf.data馈送。分布式Tensorflow不在我的考虑范围内(因为我们的服务器
模型
和
浏览 1
修改于2018-02-17
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券