腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(25)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
NVIDIA Triton对
TorchServe
的SageMaker推断
TorchServe
是PyTorch模型的DLC默认推理服务器。Triton还支持在PyTorch上进行SageMaker推理。 有谁有一个很好的对比矩阵吗?
浏览 26
修改于2022-10-01
得票数 1
回答已采纳
1
回答
每个模型有多个
TorchServe
文件
在调用MAR之前,有没有办法在多个文件之间拆分模型?import torch ...from base_model import BaseModel ...
浏览 15
修改于2021-08-09
得票数 3
回答已采纳
1
回答
Heroku
torchserve
应用程序崩溃,状态0退出。
LOG1:LOG2:pillow==9.0.1torchvision==0.11.1+cpu to
浏览 10
修改于2022-03-17
得票数 0
1
回答
TorchServe
:如何将输出的字节转换为张量
我有一个使用
TorchServe
服务的模型。我正在使用
TorchServe
与gRPC服务器进行通信。# data shape - [1, 17, 80, 64] and data dtype - torch.float32主要问题是在客户端,通过
TorchServe
浏览 35
修改于2022-09-14
得票数 1
回答已采纳
1
回答
如何在SageMaker PyTorch
TorchServe
端点上启用服务器端批处理?
如何在SageMaker PyTorch
TorchServe
端点上启用服务器端批处理?似乎找不到这方面的相关文档。
浏览 11
提问于2022-09-09
得票数 0
1
回答
在自定义处理程序中登录
TorchServe
我已经使用torch服务为DL模型编写了一个自定义处理程序,并试图了解如何向处理程序添加手动日志消息。我知道我可以简单地print任何消息,它将在MODEL_LOG记录器中显示它们的级别信息。在选定的日志级别上在处理程序中创建日志消息的最佳方法是什么?
浏览 5
提问于2022-07-27
得票数 1
1
回答
在Google顶点AI上使用客户处理程序进行部署
我试图在Google平台上部署一个
TorchServe
实例,但根据它们的文档(),它要求响应的形状如下: "predictions": PREDICTIONS其中,预测是一个表示容器生成的预测的postprocess()方法中返回这样的形状时,如下所示: return { }现在,如果我只返回data (而不是Python
浏览 4
修改于2021-09-29
得票数 0
回答已采纳
2
回答
如何在docker中运行pytorch模型服务器?
-11-jre-headless git wget curl -yCOPY densenet161.mar /model_store/EXPOSE 8080 我能够创建图像,但当我尝试打开图像并运行代码
浏览 41
修改于2021-06-22
得票数 2
1
回答
使用kubectl创建的kfserving示例中的服务,但不能插入
当我准备与模型对接图像,并运行命令。我看到输出就像但我无法运行预测,因为服务我得到404找不到。但我可以用当我遵循其他教程时,比如:,一切都很好,我可以运行预测。为什么会有新的豆荚出现?
浏览 5
修改于2021-06-14
得票数 0
回答已采纳
1
回答
哪个SageMaker服务器支持服务器端批处理,以及如何启用它?
MMS、TFServing和
TorchServe
支持服务器端的批处理(相应的请求可以由服务器以异步方式在本地批处理,同时对客户端保持同步批处理1大小的错觉)。
浏览 7
提问于2022-09-08
得票数 0
1
回答
火炬的TFX等价物
另一方面,
torchserve
关注的是机器学习操作(MLOps)的部署和软件工程方面,没有像TFX那样丰富的特性用于数据管道。 还有什么其他的方法可以替代火炬堆吗?
浏览 10
提问于2022-11-28
得票数 0
1
回答
火炬服务在本地运行时未能在码头上加载模型
火炬手版本: 0.5.2 这是不运行的,
torchserve
无法加载模型并输出java错误以及一些火炬错误。
浏览 13
提问于2022-01-14
得票数 0
回答已采纳
1
回答
对Docker容器中的服务器使用curl命令出错
假设我想要达到的目标。<HEAD><TITLE>Redirection</TITLE></HEAD>我试过的 下面的命令是从
Torchserve
容器执行的
浏览 23
修改于2022-08-25
得票数 0
1
回答
如何将本地model.mar注册到正在运行的火炬服务服务?
"post": { "description": "Register a new model in
TorchServe
.
浏览 9
提问于2022-01-16
得票数 0
1
回答
Python模块导入第三方库中复制的
我有一个结构类似于此的项目:|- __init__.py这很简单,在
TorchServe
中的AWS
TorchServe
上运行也很好(尽管这并没有那么重要
浏览 3
修改于2021-03-22
得票数 0
1
回答
无法将本地目录安装到火炬服务码头容器
在windows命令提示符中,我尝试过:在此命令之后,我搜索容器,无法在容器中找到src
浏览 5
提问于2022-08-08
得票数 0
2
回答
为什么火把闪电configure_optimizer扔AssertionError: param组一定是一个小块?
torch.optim.AdamW(self.parameters())Traceback (most recent call last): ts_train() File "/
torchserve
-example/main.py", line 21, in ts_train/
浏览 22
提问于2022-02-15
得票数 0
1
回答
java BindException:已在使用的地址:绑定即使端口是免费的
我正在测试
torchserve
的默认配置..。它的推理api监听端口8080。我得到了这个错误,这意味着端口在使用中。糟糕的是,我仍然让apache进程监听那个端口。我杀了阿帕奇进程。再次尝试通过更改
torchserve
的端口配置来使用我确信没有被任何进程使用的端口。仍然有同样的错误。
浏览 1
修改于2021-01-16
得票数 1
1
回答
如何在火炬服务中创建自定义处理程序?
= None """root@5c780ba74916:~/files#
torchserve
--start --ncs --model-store model_store --models denoise_transformerInitializing plugins manager... 202
浏览 24
修改于2022-08-24
得票数 1
回答已采纳
1
回答
将tensorflow模型部署在sagemaker异步端点上,并包含一个inference.py脚本
Environment': { 'TS_MAX_REQUEST_SIZE': '100000000', #default max request size is 6 Mb for
torchserve
浏览 12
修改于2022-09-03
得票数 0
回答已采纳
第 2 页
领券