腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
Contingent
模型
部署
我希望部署一个Tensorflow
模型
,以便可以使用RESTful应用程序接口访问它以进行
推理
。用户将通过Flask网站访问
模型
,并通过该网站上传数据。Flask网站会将数据发送到
模型
容器,并返回结果。 但是,对于我的用例,该
模型
每月最多访问几次,并且延迟不是很大的问题。让
模型
全天候运行在
云
服务
器上将是一种巨大的
浏览 2
提问于2018-11-25
得票数 0
0
回答
大
语言
模型
训练与
推理
算力如何成本估算?
并发
、
模型
大
语言
模型
算力成本估算,影响因素有哪些?
推理
并发量、
模型
参数、输入和输出内容长度、
推理
响应时间。如何具体估算算力成本?
浏览 422
提问于2023-07-21
1
回答
在web应用程序中为特定于用户的大型
模型
服务
的最佳实践?
集成大型机器学习/深度学习
模型
微调的web应用程序如何处理这些
模型
的存储和检索以进行
推理
?我正在考虑的当前方法是以压缩格式将精调
模型
存储在S
3
或R2桶中。每次用户访问web应
浏览 0
提问于2023-02-03
得票数 0
回答已采纳
4
回答
TF对象检测:
推理
有效载荷的返回子集
问题 我正在使用TF的对象检测API来训练和部署一个实例分割
模型
。我能够成功地训练
模型
,将其打包到TF
服务
码头映像(截至2020年10月的latest标记),并通过REST接口处理
推理
请求。但是,从
推理
请求返回的数据量非常
大
(数百Mb)。当
推理
请求和处理不发生在同一台机器上时,这是一个大问题,因为所有返回的数据都必须经过网络。是否有办法减少输出的数量(无论是在
模型
导出期间还是在TF
服务
映像中),以便在
推理
期间允许更快
浏览 3
提问于2020-10-04
得票数 2
回答已采纳
1
回答
是否有可能在
云
上托管对象检测
模型
、生成
推理
并将结果检索回Android应用程序?
我使用SSD移动网络架构进行迁移学习,在我自己的数据集上对
模型
进行训练。在python代码中,我能够很好地生成
推理
,但是当涉及到将
模型
与应用程序集成时,一切都变得糟糕透顶,我不幸地失败了。策略 因此,为了使用这个
模型
,我想出了一个在
云
服务
器上托管
模型
的想法,每当我从android应用程序摄像头获取图像时,它就将图像发送到
云
,执行
推理
,并将结果返回给android应用程序。到目前为止,我已经对REST 进行了研究,特别是通过HTTP协议
浏览 2
修改于2020-06-20
得票数 0
1
回答
带谷歌功能的export_inference_graph或cloudML无
服务
器
我使用TensorFlow models对象检测通过此在
云
上训练
模型
,我想知道是否有一个选项也可以使用
云
ML引擎或Google cloud Function导出
模型
?在他们的教程中,只有一个 我有训练
模型
,现在我不想创建实例(或使用我的笔记本电脑)来创建导出的.pb文件以进行
推理
,谢谢您的帮助
浏览 4
修改于2020-05-28
得票数 0
1
回答
在云中部署N个ML
模型
作为可伸缩
服务
的最佳方法是什么?
每个型号的大小约为2-
3
GB .现在,我如何在像GCP这样的
云
平台中将所有这些情感
模型
部署为一个可伸缩的
服务
,从而优化账单,最大限度地提高
服务
性能(低
推理
时间或延迟)。目前,我们正在将每个
模型
部署为一个单独的
服务
。对于每个
模型
,我们遵循以下步骤。 使用Flask开发
服务
:我们为我们的
服务
编写代码,包括处理请求的路由和逻辑。创建一个
云
负载均衡器:我们转到Google控制台并创建一个
浏览 0
提问于2023-01-17
得票数 1
1
回答
如何在
服务
/
推理
过程中设置
云
ml-engine的日志
加载检查点后,我导出了
模型
,然后将saved_model.pb文件和所有变量复制到GCS bucket。在
推理
/
服务
期间,我得到这个错误: "error": "Prediction failed: Error during model execution: AbortionError(code=StatusCode.FAILED_PRECONDITION/LSTMLayers/stack_bidirectional_rnn/cell_0/bidirect
浏览 0
修改于2018-11-10
得票数 1
0
回答
腾讯
云
轻量
服务
器 openclaw 一键更新 失效?
腾讯云
、
服务器
、
模型
、
应用管理
、
OpenClaw(Clawdbot)
腾讯
云
轻量
服务
器 openclaw 一键更新 失效,配置的
大
模型
和通道信息也丢失了,且当前无法通过应用管理页面 添加大
模型
和通道
浏览 75
提问于2026-03-12
0
回答
Nvidia如何设置龙虾自定义
模型
?
云服务器
、
nvidia
、
模型
、
配置
、
OpenClaw(Clawdbot)
云
服务
器小龙虾中设置自定义
模型
, 请问如何配置
大
善人的Nvidia,各种尝试跑不通...
浏览 49
提问于2026-03-12
2
回答
Tensorflow
服务
预测映射到标签
我正在使用TensorFlow
服务
为初始
模型
服务
。我是在Azure Kubernetes上这么做的,所以不是通过更标准和更有文档的google
云
。在我开始
服务
之前,我只是使用了一个
推理
脚本,然后在培训时将该文件与冻结的
模型
一起存储,然后交叉引用标签文件。但是如果
服务
的话,这是行不通的。因此,我的问题是,如何获得与
模型
相关的标签,以及理想情况下如何获得返回标签和概率的预测?
浏览 0
提问于2018-11-29
得票数 4
回答已采纳
2
回答
腾讯
云
向量数据库支持百川7b
大
模型
吗?
腾讯云
、
模型
、
向量数据库
你好,腾讯
云
向量数据库支持百川7b
大
模型
吗?我们可以把处理放在腾讯
云
向量数据库处理后,接入百川7b
大
模型
吗?
浏览 314
提问于2024-03-20
1
回答
inception_v
3
是否使用扩张?
我想问一下,inception_v
3
模型
是否使用扩展,因为我计划在
服务
器上运行我的
模型
以进行
推理
,但是这个
服务
器只安装了tensorflow版本1.3。这个版本与上述的扩展不兼容,所以我想确保我的
模型
能够在
服务
器上工作。
浏览 1
修改于2018-03-07
得票数 0
回答已采纳
2
回答
CPU上Tensorflow
模型
服务
器的性能问题与Tensorflow
模型
推理
的比较
我在Tensorflow
模型
服务
器上观察到CPU的性能问题。与原始的Tensorflow
模型
推理
相比,它的
推理
时间增加了一倍。两者都是用MKL构建的,只用于CPU。-config=mkl -c opt --copt=-msse4.1 --copt=-msse4.2 --copt=-mavx --copt=-mavx2 --copt=-mfma --copt=-O
3
=opt --copt=-msse4.1 --copt=-msse4.2 --copt=-mavx --copt=-mavx2
浏览 7
修改于2017-11-28
得票数 1
0
回答
腾讯
云
大
模型
知识引擎与本地anythingllm?
存储
、
腾讯云
、
腾讯云智能体开发平台
我在腾讯
云
开通了
大
模型
知识引擎的体验,现在我的知识库文档想要本地存储不想上传到
云
,我能不能在本地anythingllm上传知识库文档,再anythingllm调用
大
模型
知识引擎,我该如何实现?
浏览 151
提问于2025-04-22
0
回答
如何在inception v
3
训练
模型
上运行
推理
?
我已经成功地在定制200个类上从头开始训练了inception v
3
模型
。现在我在我的输出目录中有了ckpt文件。如何使用这些
模型
来运行
推理
?最好是在GPU上加载
模型
,并在
模型
保留在GPU上时随时传递图像。使用TensorFlow
服务
对我来说不是一个选择。 注意:我曾尝试冻结这些
模型
,但在冻结时未能正确放置output_nodes。我使用了ImagenetV
3
/Predictions/Softmax,但无法将其与f
浏览 5
提问于2017-11-27
得票数 0
2
回答
NVIDIA Triton对TorchServe的SageMaker推断
两者都是现代的产品级
推理
服务
器。TorchServe是PyTorch
模型
的DLC默认
推理
服务
器。Triton还支持在PyTorch上进行SageMaker
推理
。 有谁有一个很好的对比矩阵吗?
浏览 26
修改于2022-10-01
得票数 1
回答已采纳
1
回答
Tensorflow
服务
性能非常慢与直接
推理
我运行在以下场景中: 直
浏览 3
提问于2020-04-02
得票数 6
2
回答
使用Rest部署
模型
进行联机
推理
时节省VM成本
在使用Rest部署
模型
进行在线
推理
时,可以节省VM成本,ADB允许我们通过REST部署在线
推理
模型
。为此,亚行创建了一个专门为特定
模型
服务
的VM。“数据科学家”可以创建和部署多个测试在线
推理
的
模型
,因此,由于这些新创建的VM一直在运行,成本可以迅速增长,而且是无法控制的,也是不必要的。 在一段时间的不活动之后,有可能关闭他们?
浏览 3
提问于2022-06-10
得票数 0
1
回答
只加载一次已部署的ONNX
模型
我有一个大型机器学习/计算机视觉项目,它使用ONNX
模型
,使用python。该项目大约需要
3
秒(本地)才能加载
模型
+推断。加载onnx
模型
所需的时间: onnx
推理
所需的0.2702977657318115时间,onnx
推理
所需的1.673530101776123时间,onnx
推理
所需的时间0.7677013874053955在部署项目之后,这个加载时间总是在
服务
器上的每一个单独的点击时启动。 例如,如果4个用户一次请求,所有结果将花费大约3
浏览 6
修改于2022-10-30
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券