腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
4
回答
TF对象检测:
推理
有效载荷的返回子集
问题 我正在使用TF的对象检测API来训练和部署一个实例分割
模型
。我能够成功地训练
模型
,将其打包到TF
服务
码头映像(截至2020年10月的latest标记),并通过REST接口处理
推理
请求。但是,从
推理
请求返回的数据量非常
大
(数百Mb)。当
推理
请求和处理不发生在同一台机器上时,这是一个大问题,因为所有返回的数据都必须经过网络。是否有办法减少输出的数量(无论是在
模型
导出期间还是在TF
服务
映像中),以便在
推理
期间允许更快
浏览 3
提问于2020-10-04
得票数 2
回答已采纳
1
回答
Contingent
模型
部署
我希望部署一个Tensorflow
模型
,以便可以使用RESTful应用程序接口访问它以进行
推理
。用户将通过Flask网站访问
模型
,并通过该网站上传数据。Flask网站会将数据发送到
模型
容器,并返回结果。 但是,对于我的用例,该
模型
每月最多访问几次,并且延迟不是很大的问题。让
模型
全天候运行在
云
服务
器上将是一种巨大的
浏览 2
提问于2018-11-25
得票数 0
0
回答
大
语言
模型
训练与
推理
算力如何成本估算?
并发
、
模型
大
语言
模型
算力成本估算,影响因素有哪些?
推理
并发量、
模型
参数、输入和输出内容长度、
推理
响应时间。如何具体估算算力成本?
浏览 422
提问于2023-07-21
1
回答
Tensorflow
服务
性能非常慢与直接
推理
我运行在以下场景中:
推理
客户端所做的是从
4
个不同的摄像机(每个一个)获取图像,并将其传递给TF-用于
推理
,以便了解视频提要上所看到的内容。为了优化RAM,Tensorflow
服务
最近被引入到混合系统中,因为我们不将复制的
模型
加载到显卡中。而且性能看起来不太好,对于1080 p的图片,它看
浏览 3
提问于2020-04-02
得票数 6
1
回答
是否有可能在
云
上托管对象检测
模型
、生成
推理
并将结果检索回Android应用程序?
我使用SSD移动网络架构进行迁移学习,在我自己的数据集上对
模型
进行训练。在python代码中,我能够很好地生成
推理
,但是当涉及到将
模型
与应用程序集成时,一切都变得糟糕透顶,我不幸地失败了。策略 因此,为了使用这个
模型
,我想出了一个在
云
服务
器上托管
模型
的想法,每当我从android应用程序摄像头获取图像时,它就将图像发送到
云
,执行
推理
,并将结果返回给android应用程序。到目前为止,我已经对REST 进行了研究,特别是通过HTTP协议
浏览 2
修改于2020-06-20
得票数 0
1
回答
带谷歌功能的export_inference_graph或cloudML无
服务
器
我使用TensorFlow models对象检测通过此在
云
上训练
模型
,我想知道是否有一个选项也可以使用
云
ML引擎或Google cloud Function导出
模型
?在他们的教程中,只有一个 我有训练
模型
,现在我不想创建实例(或使用我的笔记本电脑)来创建导出的.pb文件以进行
推理
,谢谢您的帮助
浏览 4
修改于2020-05-28
得票数 0
0
回答
腾讯
云
轻量
服务
器 openclaw 一键更新 失效?
腾讯云
、
服务器
、
模型
、
应用管理
、
OpenClaw(Clawdbot)
腾讯
云
轻量
服务
器 openclaw 一键更新 失效,配置的
大
模型
和通道信息也丢失了,且当前无法通过应用管理页面 添加大
模型
和通道
浏览 75
提问于2026-03-12
0
回答
Nvidia如何设置龙虾自定义
模型
?
云服务器
、
nvidia
、
模型
、
配置
、
OpenClaw(Clawdbot)
云
服务
器小龙虾中设置自定义
模型
, 请问如何配置
大
善人的Nvidia,各种尝试跑不通...
浏览 49
提问于2026-03-12
1
回答
如何在
服务
/
推理
过程中设置
云
ml-engine的日志
加载检查点后,我导出了
模型
,然后将saved_model.pb文件和所有变量复制到GCS bucket。在
推理
/
服务
期间,我得到这个错误: "error": "Prediction failed: Error during model execution: AbortionError(code=StatusCode.FAILED_PRECONDITION/LSTMLayers/stack_bidirectional_rnn/cell_0/bidirect
浏览 0
修改于2018-11-10
得票数 1
1
回答
在web应用程序中为特定于用户的大型
模型
服务
的最佳实践?
集成大型机器学习/深度学习
模型
微调的web应用程序如何处理这些
模型
的存储和检索以进行
推理
?我正在考虑的当前方法是以压缩格式将精调
模型
存储在S3或R2桶中。每次用户访问web应用程序并请求<em
浏览 0
提问于2023-02-03
得票数 0
回答已采纳
1
回答
基于SageMaker Neo的AWS - SageMaker无
服务
器
推理
我计划结合使用SageMaker serverless无
服务
器
推理
和SageMaker Neo来部署我的
模型
,用于无
服务
器、低延迟的
推理
。然而,文件不清楚是否有可能这样做。根据Neo 的实例类型,我可以使用例如ml_m
4
实例。但是,Neo 的OutputConfig指定TargetDevice可以是lambda。无
服务
器
推理
指定"Serverless
推理
与AWS集成以提供高可用性.“,因此我假设底层实例与AWS具有相同(或兼
浏览 4
提问于2022-09-08
得票数 0
回答已采纳
2
回答
Tensorflow
服务
预测映射到标签
我正在使用TensorFlow
服务
为初始
模型
服务
。我是在Azure Kubernetes上这么做的,所以不是通过更标准和更有文档的google
云
。在我开始
服务
之前,我只是使用了一个
推理
脚本,然后在培训时将该文件与冻结的
模型
一起存储,然后交叉引用标签文件。但是如果
服务
的话,这是行不通的。因此,我的问题是,如何获得与
模型
相关的标签,以及理想情况下如何获得返回标签和概率的预测?
浏览 0
提问于2018-11-29
得票数 4
回答已采纳
1
回答
并发AzureML REST请求失败,
服务
请求过多(过载)
我已经将我的
模型
部署到具有6个节点的生产Azure Kubernetes
服务
。我正在发送
4
mb大小的请求。当我发送微不足道的小请求时,它似乎起作用了。
浏览 2
修改于2020-11-04
得票数 2
1
回答
在云中部署N个ML
模型
作为可伸缩
服务
的最佳方法是什么?
每个型号的大小约为2-3 GB .现在,我如何在像GCP这样的
云
平台中将所有这些情感
模型
部署为一个可伸缩的
服务
,从而优化账单,最大限度地提高
服务
性能(低
推理
时间或延迟)。目前,我们正在将每个
模型
部署为一个单独的
服务
。对于每个
模型
,我们遵循以下步骤。 使用Flask开发
服务
:我们为我们的
服务
编写代码,包括处理请求的路由和逻辑。创建一个
云
负载均衡器:我们转到Google控制台并创建一个新的
云</
浏览 0
提问于2023-01-17
得票数 1
2
回答
腾讯
云
向量数据库支持百川7b
大
模型
吗?
腾讯云
、
模型
、
向量数据库
你好,腾讯
云
向量数据库支持百川7b
大
模型
吗?我们可以把处理放在腾讯
云
向量数据库处理后,接入百川7b
大
模型
吗?
浏览 314
提问于2024-03-20
1
回答
yolov
4
对象检测
模型
的
推理
时间
我正在raspberry pi
4
B和jetson上运行yolov
4
对象检测
模型
。我得记录下
推理
时间。我使用12张图片进行评估。如何记录该
模型
的
推理
时间?有什么可以计算
推理
时间的吗?
浏览 1
提问于2022-07-26
得票数 0
1
回答
只加载一次已部署的ONNX
模型
我有一个大型机器学习/计算机视觉项目,它使用ONNX
模型
,使用python。该项目大约需要3秒(本地)才能加载
模型
+推断。加载onnx
模型
所需的时间: onnx
推理
所需的0.2702977657318115时间,onnx
推理
所需的1.673530101776123时间,onnx
推理
所需的时间0.7677013874053955在部署项目之后,这个加载时间总是在
服务
器上的每一个单独的点击时启动。 例如,如果
4
个用户一次请求,所有结果将花费大约3
浏览 6
修改于2022-10-30
得票数 1
回答已采纳
2
回答
如何使用tf.lite.Interpreter (python中的)来运行tflite
模型
(*.tflite)?
根据https://www.tensorflow.org/lite/convert的指示,我已经将tensorflow
推理
图转换为tflite
模型
文件(*.tflite)。我在我的GPU
服务
器上测试了tflite
模型
,它有
4
个Nvidia TITAN GPU。我使用tf.lite.Interpreter加载并运行了tflite
模型
文件。它像以前的tensorflow图一样工作,然而,问题是
推理
变得太慢了。当我检查原因时,我发现tf
浏览 45
提问于2019-09-05
得票数 3
2
回答
NVIDIA Triton对TorchServe的SageMaker推断
两者都是现代的产品级
推理
服务
器。TorchServe是PyTorch
模型
的DLC默认
推理
服务
器。Triton还支持在PyTorch上进行SageMaker
推理
。 有谁有一个很好的对比矩阵吗?
浏览 26
修改于2022-10-01
得票数 1
回答已采纳
0
回答
腾讯
云
大
模型
知识引擎与本地anythingllm?
存储
、
腾讯云
、
腾讯云智能体开发平台
我在腾讯
云
开通了
大
模型
知识引擎的体验,现在我的知识库文档想要本地存储不想上传到
云
,我能不能在本地anythingllm上传知识库文档,再anythingllm调用
大
模型
知识引擎,我该如何实现?
浏览 151
提问于2025-04-22
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券