腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(2167)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
Contingent
模型
部署
我希望部署一个Tensorflow
模型
,以便可以使用RESTful应用程序接口访问它以进行
推理
。用户将通过Flask网站访问
模型
,并通过该网站上传数据。Flask网站会将数据发送到
模型
容器,并返回结果。 但是,对于我的用例,该
模型
每月最多访问几次,并且延迟不是很大的问题。让
模型
全天候运行在
云
服务
器上将是一种巨大的
浏览 2
提问于2018-11-25
得票数 0
0
回答
大
语言
模型
训练与
推理
算力如何成本估算?
并发
、
模型
大
语言
模型
算力成本估算,影响因素有哪些?
推理
并发量、
模型
参数、输入和输出内容长度、
推理
响应时间。如何具体估算算力成本?
浏览 423
提问于2023-07-21
4
回答
TF对象检测:
推理
有效载荷的返回子集
问题 我正在使用TF的对象检测API来训练和部署一个实例分割
模型
。我能够成功地训练
模型
,将其打包到TF
服务
码头映像(截至2020年10月的latest标记),并通过REST接口处理
推理
请求。但是,从
推理
请求返回的数据量非常
大
(数百Mb)。当
推理
请求和处理不发生在同一台机器上时,这是一个大问题,因为所有返回的数据都必须经过网络。是否有办法减少输出的数量(无论是在
模型
导出期间还是在TF
服务
映像中),以便在
推理
期间允许更快
浏览 3
提问于2020-10-04
得票数 2
回答已采纳
1
回答
是否有可能在
云
上托管对象检测
模型
、生成
推理
并将结果检索回Android应用程序?
我使用SSD移动网络架构进行迁移学习,在我自己的数据集上对
模型
进行训练。在python代码中,我能够很好地生成
推理
,但是当涉及到将
模型
与应用程序集成时,一切都变得糟糕透顶,我不幸地失败了。策略 因此,为了使用这个
模型
,我想出了一个在
云
服务
器上托管
模型
的想法,每当我从android应用程序摄像头获取图像时,它就将图像发送到
云
,执行
推理
,并将结果返回给android应用程序。到目前为止,我已经对REST 进行了研究,特别是通过HTTP协议
浏览 2
修改于2020-06-20
得票数 0
1
回答
带谷歌功能的export_inference_graph或cloudML无
服务
器
我使用TensorFlow models对象检测通过此在
云
上训练
模型
,我想知道是否有一个选项也可以使用
云
ML引擎或Google cloud Function导出
模型
?在他们的教程中,只有一个 我有训练
模型
,现在我不想创建实例(或使用我的笔记本电脑)来创建导出的.pb文件以进行
推理
,谢谢您的帮助
浏览 4
修改于2020-05-28
得票数 0
0
回答
腾讯
云
轻量
服务
器 openclaw 一键更新 失效?
腾讯云
、
服务器
、
模型
、
应用管理
、
OpenClaw(Clawdbot)
腾讯
云
轻量
服务
器 openclaw 一键更新 失效,配置的
大
模型
和通道信息也丢失了,且当前无法通过应用管理页面 添加大
模型
和通道
浏览 75
提问于2026-03-12
0
回答
Nvidia如何设置龙虾自定义
模型
?
云服务器
、
nvidia
、
模型
、
配置
、
OpenClaw(Clawdbot)
云
服务
器小龙虾中设置自定义
模型
, 请问如何配置
大
善人的Nvidia,各种尝试跑不通...
浏览 49
提问于2026-03-12
1
回答
如何在
服务
/
推理
过程中设置
云
ml-engine的日志
加载检查点后,我导出了
模型
,然后将saved_model.pb文件和所有变量复制到GCS bucket。在
推理
/
服务
期间,我得到这个错误: "error": "Prediction failed: Error during model execution: AbortionError(code=StatusCode.FAILED_PRECONDITION/LSTMLayers/stack_bidirectional_rnn/cell_0/bidirect
浏览 0
修改于2018-11-10
得票数 1
1
回答
在web应用程序中为特定于用户的大型
模型
服务
的最佳实践?
集成大型机器学习/深度学习
模型
微调的web应用程序如何处理这些
模型
的存储和检索以进行
推理
?我正在考虑的当前方法是以压缩格式将精调
模型
存储在S3或R2桶中。每次用户访问web应用程序并请求<em
浏览 0
提问于2023-02-03
得票数 0
回答已采纳
2
回答
Tensorflow
服务
预测映射到标签
我正在使用TensorFlow
服务
为初始
模型
服务
。我是在Azure Kubernetes上这么做的,所以不是通过更标准和更有文档的google
云
。在我开始
服务
之前,我只是使用了一个
推理
脚本,然后在培训时将该文件与冻结的
模型
一起存储,然后交叉引用标签文件。但是如果
服务
的话,这是行不通的。因此,我的问题是,如何获得与
模型
相关的标签,以及理想情况下如何获得返回标签和概率的预测?
浏览 0
提问于2018-11-29
得票数 4
回答已采纳
1
回答
在云中部署N个ML
模型
作为可伸缩
服务
的最佳方法是什么?
每个型号的大小约为2-3 GB .现在,我如何在像GCP这样的
云
平台中将所有这些情感
模型
部署为一个可伸缩的
服务
,从而优化账单,最大限度地提高
服务
性能(低
推理
时间或延迟)。目前,我们正在将每个
模型
部署为一个单独的
服务
。对于每个
模型
,我们遵循以下步骤。 使用Flask开发
服务
:我们为我们的
服务
编写代码,包括处理请求的路由和逻辑。创建一个
云
负载均衡器:我们转到Google控制台并创建一个新的
云</
浏览 0
提问于2023-01-17
得票数 1
2
回答
腾讯
云
向量数据库支持百川7b
大
模型
吗?
腾讯云
、
模型
、
向量数据库
你好,腾讯
云
向量数据库支持百川7b
大
模型
吗?我们可以把处理放在腾讯
云
向量数据库处理后,接入百川7b
大
模型
吗?
浏览 314
提问于2024-03-20
2
回答
NVIDIA Triton对TorchServe的SageMaker推断
两者都是现代的产品级
推理
服务
器。TorchServe是PyTorch
模型
的DLC默认
推理
服务
器。Triton还支持在PyTorch上进行SageMaker
推理
。 有谁有一个很好的对比矩阵吗?
浏览 26
修改于2022-10-01
得票数 1
回答已采纳
1
回答
Tensorflow
服务
性能非常慢与直接
推理
我运行在以下场景中: 直
浏览 3
提问于2020-04-02
得票数 6
0
回答
腾讯
云
大
模型
知识引擎与本地anythingllm?
存储
、
腾讯云
、
腾讯云智能体开发平台
我在腾讯
云
开通了
大
模型
知识引擎的体验,现在我的知识库文档想要本地存储不想上传到
云
,我能不能在本地anythingllm上传知识库文档,再anythingllm调用
大
模型
知识引擎,我该如何实现?
浏览 151
提问于2025-04-22
2
回答
使用Rest部署
模型
进行联机
推理
时节省VM成本
在使用Rest部署
模型
进行在线
推理
时,可以节省VM成本,ADB允许我们通过REST部署在线
推理
模型
。为此,亚行创建了一个专门为特定
模型
服务
的VM。“数据科学家”可以创建和部署多个测试在线
推理
的
模型
,因此,由于这些新创建的VM一直在运行,成本可以迅速增长,而且是无法控制的,也是不必要的。 在一段时间的不活动之后,有可能关闭他们?
浏览 3
提问于2022-06-10
得票数 0
1
回答
启动时在FastAPI项目中加载
模型
因此,我目前正在从事一个为多个NLP
服务
的FastAPI项目。要做到这一点,我想提供不同的
模型
,从空间以及拥抱脸。 由于这些
模型
是相当
大
的,为每个post请求加载
模型
的
推理
时间相当长,。我的想法是在FastAPI启动时(在app/main.py中)加载所有
模型
,但是,我不确定这是否是一个好的选择/想法,或者这种方法是否存在一些缺陷,因为
模型
将在缓存(?)中。
浏览 6
修改于2021-01-08
得票数 7
回答已采纳
2
回答
将图形原型(pb/pbtxt)转换为SavedModel,以便在TensorFlow
服务
或
云
ML引擎中使用
我一直在我训练的一个
模型
上遵循代码实验室,并创建了一个带有嵌入权重的冻结量化图。它被捕获在一个单独的文件中--比如my_quant_graph.pb。由于我可以很好地使用该图与进行
推理
,我认为我可以使用
云
ML引擎来做同样的事情,但它似乎只能在SavedModel
模型
上工作。
浏览 2
提问于2017-06-02
得票数 10
回答已采纳
1
回答
知识蒸馏是否具有整体效应?
有一个
模型
显示了99%的性能(10class图像分类)。但我不能使用更大的
模型
,因为我必须保持
推理
时间。 如果我使用另一个
大
模型
训练知识蒸馏,是否会产生整体效应?
浏览 17
提问于2021-07-14
得票数 0
回答已采纳
1
回答
切换Jena
推理
机
我有一个Jena本体
模型
(),我正在对其进行编程修改。此
模型
最初是使用创建的。问题是,随着程序的运行和
模型
的改变,默认的Jena Reasoner将会运行(并且运行,运行,再运行)。我更改了程序,使用创建了一个没有
推理
机的
模型
。它运行得非常快,没有表现出我之前看到的任何内存问题(即使是非常
大
的数据集)。当使用
推理
器(甚至是微型
推理
器)时,"grow“方法运行太慢,内存不足。如果我关闭了
推理
机,那么我就不能使用"pl
浏览 1
修改于2009-03-17
得票数 5
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券