腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
CPU
推理
会降低精确度吗?
它与GPU工作良好,但在部署到服务器并使用
CPU
运行模型后,效果不如以前好。所以我的问题是:用
CPU
进行
推理
会降低模型的准确性吗?如有,请解释或寄给我任何参考文件或文章。
浏览 16
提问于2022-06-01
得票数 -1
1
回答
Tensorflow:使用线程池的多
cpu
推理
默认情况下,Tensorflow可以使用多个核心,下面是关于这个的一些信息 单核顺序处理:Processing time: 37.58 sec 多
CPU
默认Tensorflow设置
浏览 0
修改于2019-06-02
得票数 0
回答已采纳
1
回答
TensorFlow
推理
(服务),
CPU
够用吗?
或者一个
CPU
实例就足够了吗? 谢谢。
浏览 2
修改于2016-11-15
得票数 1
1
回答
使用GPU训练的模型可以用于
CPU
上的
推理
吗?
我想在
CPU
上运行
推理
;尽管我的机器有GPU。我想知道是否有可能强制TensorFlow使用中央处理器而不是图形处理器?默认情况下,TensorFlow会自动使用GPU进行
推理
,但由于我的GPU不好(OOM‘’ed),我想知道是否有设置强制Tensorflow使用
CPU
进行
推理
?
浏览 0
修改于2021-06-22
得票数 1
1
回答
有没有办法在
cpu
中优化pytorch
推理
?
然而,在处理器中
推理
(Amd3600)需要70%的
cpu
资源。有没有办法在
cpu
中优化
推理
? 非常感谢
浏览 7
提问于2021-09-19
得票数 0
1
回答
如何计算NN在
cpu
上的
推理
时间?
如何在Tensorflow CNN中找到/计算单个图像的推断时间?
浏览 5
修改于2022-06-13
得票数 -1
1
回答
coreml
推理
结果与
cpu
和gpu不同。
但是使用
cpu
设备和gpu设备的
推理
结果是不同的。 结果如下:左文件是使用
cpu
的
推理
结果(第二列),右文件是使用CpuAndGpu的
推理
结果(第二列)。
浏览 0
提问于2020-01-21
得票数 1
回答已采纳
1
回答
利用pytorch和多重处理在
CPU
上运行
推理
我现在试图在同一台机器上使用该模型进行
推理
,但使用的是
CPU
而不是GPU。除此之外,我还试图使用多处理模块来使用多
CPU
核。现在有个问题,os.environCUDA_VISIBLE_DEVICES']="&q
浏览 0
修改于2019-09-30
得票数 11
1
回答
Tensorflow对象检测
推理
在
CPU
上缓慢
cuda /cuDNN版本:cuda 8.0 图形转换工具:为了更快地得到冻
浏览 4
提问于2017-09-19
得票数 4
1
回答
基于
cpu
的fp16
推理
我有一个pretrained pytorch模型,我想在fp16而不是fp32上推断,我已经在使用gpu时尝试过了,但是当我在
cpu
上尝试它时,我得到了:"sum_
cpu
" not implemented
浏览 0
提问于2020-05-31
得票数 0
1
回答
一个在gpu上训练的模型可以用在
cpu
上进行
推理
,反之亦然?
我想知道在GPU上训练的模型是否可以用来与
cpu
一起运行
推理
?(反之亦然)感谢你!
浏览 3
提问于2016-12-05
得票数 16
回答已采纳
2
回答
在GPU上进行训练并在
CPU
上进行
推理
时的模型精度
当我们关心速度的时候,GPU比
CPU
好得多。。我的直觉说,GPU和
CPU
之间的关系,如果涉及到精度,就不应该有任何区别。 但我有一点怀疑,GPU和
CPU
内部处理信息的方式各不相同。他们都有不同的建筑。当模型在GPU上进行训练时,在
CPU
上训练时是否会发生完全相同的处理方式,但速度要慢得多呢?我不关心训练时的准确性,但如果一个模型是在
浏览 0
提问于2021-05-27
得票数 0
回答已采纳
1
回答
无法使用对GPU实例进行训练的深度学习RNN模型,用于纯
CPU
实例的
推理
。
但不幸的是,我们的产品实例只是
CPU
实例。当我试图使用GPU训练的模型与CuDNNGRU上只有
CPU
的实例,我得到了以下错误。
浏览 1
提问于2019-08-19
得票数 1
1
回答
可以并行工作两个NCPS2吗?
当我使用设备多:
CPU
运行
推理
时(在Python或wih benchmark_app上),我得到的
推理
时间与仅使用
CPU
的时间相同。
浏览 9
提问于2022-05-02
得票数 -1
1
回答
带有uvicorn的FastAPI不允许线程使用率超过65%
我编写了一个机器学习
推理
库,它有python绑定。在正常操作下,该库将使用8个线程进行
推理
,并将所有8个线程全部释放100%。这是所需的行为,因为模型非常重,我需要为低延迟进行优化(因此我需要使用所有的
CPU
资源)。如果我编写一个python脚本并调用这个库中的
推理
函数(在一个无限循环中),这8个线程就会如预期的那样被最大化(这是htop命令的输出)。现在我有个问题。如果我在机器学习库中调用相同的
推理
函数,再次在无限循环中调用,但这次是从我的FastAPI端点中调用的,那么每个线程的
C
浏览 6
提问于2022-10-27
得票数 1
回答已采纳
1
回答
高分辨率图像的目标检测
推理
在
cpu
上花费了大量的时间
我已经在pascal数据集上训练了ML模型,图像大小为224,但是当在新图像(一些是高分辨率的,一些是比pascal图像略高的)上推断时,我在pil2tensor()中得到了错误 @app.route('/analyze', methods=['POST']) data = await request.form() img = open_image(BytesIO(img_bytes))
浏览 25
提问于2019-06-09
得票数 0
1
回答
在英特尔处理器上,Tflite Quant
推理
比TFlite float32慢
我使用默认优化(Float32)设置将网络转换为TFlite,其
推理
速度约为25fps。当我转换为TFlite INT8量化时,它的
推理
速度在英特尔8核英特尔酷睿i9 2.3 GHz上约为2 fps。这在
CPU
上是预期的吗?有人能解释一下是什么导致INT8
推理
速度慢吗?
浏览 45
提问于2020-10-30
得票数 0
1
回答
是否可以在Tensorflow上的不同设备上运行网络的某些层?
我一直在尝试在Movidius神经计算棒上运行自定义Tensorflow模型的
推理
。问题是,NCSDK不支持最后一层。由于最后一层的计算非常轻,我想知道是否有可能在
CPU
上运行该层?我只需要能够在NCS上运行
推理
到某一层,然后在
CPU
上处理最后一层。
浏览 1
提问于2018-07-09
得票数 1
1
回答
将GpuMat复制到CUDA张量
我试图在C++中运行模型
推理
。我能够在C++中使用torch::jit::load()加载模型。我能够在
cpu
和gpu上进行
推理
,但是起点总是torch::from_blob方法,它似乎正在创建
cpu
端张量。 为了提高效率,我想直接向CUDA张量转换/复制cv::cuda::GpuMat。
浏览 0
提问于2018-12-04
得票数 1
回答已采纳
1
回答
OpenVINO图形处理器性能优化
我正在尝试加速一个人员计数器应用程序的
推理
速度,为了使用GPU,我已经按照描述设置了
推理
机配置: device_name = "GPU" ie.SetConfig({ {PluginConfigParams/cldnn_global_custom_kernels/cldnn_global_custom_kernels.xml"} }, device_name); 并在
推理
引擎上加载网络,我已经设置了目标设备KEY_DYN_BATCH_ENABLED, PluginConfigParams::
浏览 7
修改于2020-01-29
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券