腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
如何在计算机上而不是在TPU上运行这些Coral
AI
模型的
推理
?
我有Coral
AI
usb TPU,我成功地运行了入门示例,部署了已经编译/训练过的示例模型(图像分类),并在TPU上运行了一个鹦鹉图像
推理
:--input test_data/parrot.jpg 但是,我想在计算机CPU (例如,我的笔记本电脑或Raspberry Pi )中运行相同模型的
推理
,以比较在
加速
器中运行
推理
所需的时间,比如Coral
浏览 14
提问于2022-04-28
得票数 0
0
回答
在智能手机上,ncnn是否支持npu
加速
?
android
、
深度学习
、
腾讯云测试服务
、
人工智能
想在安卓手机上测试检测模型的
推理
耗时,目前用的是vulkan
加速
。想问一下ncnn能否调用npu
加速
模型
推理
浏览 502
提问于2022-06-15
1
回答
AI
推理
系统
我想知道是否有任何系统/基础设施能够执行一些人工
推理
过程,例如:Context: A is a pen Question: is A vertical or horizontal Reasoning processA is horizontal提前谢谢你!
浏览 19
提问于2018-04-04
得票数 0
1
回答
Azure NCv3和NC T4_v3有什么区别?
尽管有一种解释"The NC 3-系列和NC T4 _v3系列的尺寸是为计算密集型的GPU
加速
应用程序优化的,一些例子是基于CUDA和基于OpenCL的应用程序和仿真、人工智能和深度学习。NC T4 v3-系列的重点是基于NVIDIA的Tesla T4 GPU和AMD EPYC2罗马处理器的
推理
工作负载。NC 3系列专注于高性能计算和以NVIDIA的NC U.为特色的
AI
工作负载。
浏览 5
提问于2022-10-14
得票数 0
1
回答
Vertex
AI
返回与本地tflite模型不同的结果
我在Vertex
AI
上载了我的tflite模型并创建了一个端点,我请求使用一些输入值进行
推理
,但它返回的结果与我本地的tflite模型的
推理
结果不同。虽然有相同的输入数组,但本地tflite模型和上传到Vertex
AI
上的模型返回了非常不同的结果。 在将值传输到Vertex
AI
实例时,值是否存在失真的可能性?
浏览 42
修改于2021-11-17
得票数 0
3
回答
目前最快的Mask R-CNN实现是什么
我目前正在使用Detectron2 Mask R-CNN实现,我相信
推理
速度大约为5FPS。 为了加快速度,我研究了其他
推理
引擎和模型实现。例如ONNX,但我无法获得更快的
推理
速度。有没有其他成熟和快速的
推理
引擎或其他技术来
加速
推理
?
浏览 73
提问于2019-12-18
得票数 7
1
回答
简单地说,JAX、Trax和TensorRT之间有什么区别?
我一直在使用TensorRT和TensorFlow-TRT来
加速
我的DL算法的
推理
.日本航空公司Trax 两者似乎都
加速
了DL。但我现在很难理解他们。有人能用简单的术语来解释吗?
浏览 4
修改于2021-10-27
得票数 5
回答已采纳
1
回答
PyTorch:如何批量
推理
(并行
推理
)
如何在PyTorch中进行批量
推理
?如何并行
推理
来
加速
那部分代码。我从进行
推理
的标准方法开始: with torch.no_grad(): inputs= inputs.to(device) output = output.to(device) 我研究过,唯一提到并行
推理
(在同一台机器上
浏览 727
修改于2020-08-27
得票数 1
回答已采纳
1
回答
无法创建AWS Segamaker,错误:帐户级服务限制“所有笔记本的弹性
推理
加速
器的数量。”
我正面临一条错误信息 “帐户级服务限制‘所有笔记本实例中弹性
推理
加速
器的数量。’为0个
加速
器,当前使用的
加速
器为0个,请求增量为1个
加速
器。请与AWS支持联系,要求增加此限制。”
浏览 9
提问于2022-04-04
得票数 0
回答已采纳
0
回答
AI
加速
硬件方案?
腾讯云
、
neo
、
硬件
我是寒武纪Neo,目前腾讯云
AI
硬件
加速
这块是基于什么硬件方案呢?
浏览 353
提问于2019-07-27
1
回答
OpenVINO图形处理器性能优化
我正在尝试
加速
一个人员计数器应用程序的
推理
速度,为了使用GPU,我已经按照描述设置了
推理
机配置: device_name = "GPU" ie.SetConfig({ {PluginConfigParams/cldnn_global_custom_kernels/cldnn_global_custom_kernels.xml"} }, device_name); 并在
推理
引擎上加载网络,我已经设置了目标设备KEY_DYN_BATCH_ENABLED, PluginConfi
浏览 7
修改于2020-01-29
得票数 1
回答已采纳
2
回答
如何
加速
tensorflow
推理
时间
对于模型推断,我们尝试两种情况: 波束搜索。我们尝试使用光束宽度5,其推断时间约为400 is ~1000 is。那么,是否有任何建议来缩短我们的案件的
推理
时间呢?谢谢。
浏览 4
修改于2020-06-20
得票数 2
1
回答
TensorRT/TFlite示例实现
有了经过训练的“.h5”Keras模型文件,我正在尝试优化
推理
时间: (打开以提高TensorFlow和Keras支持的
推理
速度的其他建议)
浏览 1
提问于2019-07-06
得票数 3
2
回答
加速
Keras模型的
推理
我有一个Keras模型,它在Raspberry Pi (用相机)上进行
推理
。,我还能做些什么来提高
推理
的速度吗?有没有一种方法可以简化model.h5并降低准确度?我已经在简单的模型上取得了成功,但是对于这个项目,我需要依赖现有的模型,这样我就不能从头开始训练了。
浏览 0
修改于2017-11-05
得票数 7
回答已采纳
2
回答
有没有办法同时使用GPU
加速
器和谷歌云
AI
平台中的Torch进行模型部署?
我已经有了一个torch模型(BERT),我想使用
ai
-platform服务通过GPU获得在线预测,但我不知道如何做到这一点。以下命令在不使用
加速
器的情况下有效: mls1-c4-m4'但是如果我使用不同的机器类型,我知道我可以与<em
浏览 49
修改于2020-03-10
得票数 1
回答已采纳
1
回答
Google
AI
平台的
推理
,支持什么?
我一直在阅读Google
AI
平台的文档以进行推断,它们似乎(也许我错过了它)说明支持哪些框架。 我是不是应该假设所有框架都是受支持的?训练方支持自定义dockers,这给人一种感觉,只要你可以将任何代码打包到容器中,它就会运行-但在预测/
推理
产品上没有这样的指导。
浏览 17
提问于2020-08-28
得票数 0
1
回答
总
加速
速度是多少?
总
加速
速度是多少?Speedup = 1 / [0.7 + 0.3*0.8/4 + 0.3*0.2*0.5/2 + 0.3*0.2*0.5] = 1.2422 但答案是错误的,这表明我的
推理
是错误的,但我不知道哪里是错误的
浏览 5
修改于2015-05-22
得票数 1
1
回答
为什么我不能创建一个带有
推理
加速
器的ECS任务定义?
我想尝试将
推理
加速
器附加到ECS任务中。字段InferenceAccelerators据认为是一个受支持的字段 我是不是做错了什么,这是个错误,还是因为某种原因,任务定义中不支持
推理
加速
器?
浏览 1
提问于2021-07-28
得票数 0
回答已采纳
2
回答
使用CUDA纹理内存进行插值
我有两个数组(即
Ai
和Bi),我想在它们之间插入数据。我认为我可以将它们绑定到纹理内存并设置插值,但我不确定如何才能做到这一点。 CUDA附带的示例使用
Ai
-1和
Ai
+1进行插值。我尝试这样做是因为我认为我可以获得很好的
加速
效果。
浏览 3
修改于2015-06-26
得票数 1
回答已采纳
0
回答
哪个
Ai
工具最好用?你会选择deepfig还是豆包?
工具
、
数学
、
DeepSeek
哪个
Ai
工具最好用?你会选择deepfig还是豆包?deepfig和豆包他们两个是有区别的,deepfig专注于专业领域,擅长代码生成,数学建模,
推理
成本低,豆包主打多模态多场景创意生产,支持文生图,实时联网,更贴近生活
浏览 209
提问于2025-09-14
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券