腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(193)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
ExtJs
Triton
主题组件的样式问题
我正在使用Extjs
Triton
主题,我想减少一些字段的填充,高度和字体大小的值。我已经尝试了一些方法,但我不能这样做。当我使用
triton
主题时,所有组件都看起来有点大。
浏览 23
提问于2017-01-13
得票数 0
1
回答
使用
triton
音频播放器和react本机
我必须使用音频播放器,
triton
player-import导入播放器从‘反应-
triton
-数字播放器’;import React from 'StyleSheet, View, Text,
浏览 4
修改于2022-10-26
得票数 1
1
回答
Triton
推理服务器的姿态估计
在NVIDIA
Triton
推理服务器中,我在运行位姿模型。模型(开放姿态,阿尔法姿势,HRNet .正常加载,但后处理是问题所在。
浏览 5
提问于2021-12-02
得票数 0
1
回答
coreos和
triton
相比怎么样?
我知道有来自coreos的rkt ()和来自joyent的
triton
()编辑 也许我应该在@ Lakatos Gyula的这些好评论之后重新表达我的问题。与coreos或kubernetes相比,
Triton
如何在规模上运行码头集装箱?
浏览 5
修改于2016-01-14
得票数 3
回答已采纳
2
回答
NVIDIA
Triton
对TorchServe的SageMaker推断
Triton
还支持在PyTorch上进行SageMaker推理。 有谁有一个很好的对比矩阵吗?
浏览 26
修改于2022-10-01
得票数 1
回答已采纳
1
回答
Nvidia
Triton
tensorflow字符串参数
在
Triton
Java api中使用什么类型的字符串?
浏览 21
修改于2021-03-11
得票数 0
1
回答
nvidia
triton
中字符串参数的使用
我试图在
Triton
推理服务器上部署一个简单的模型。它加载得很好,但是我在格式化输入以执行正确的推理请求时遇到了问题。
浏览 35
提问于2022-05-03
得票数 0
回答已采纳
1
回答
Triton
推理服务器- tritonserver:未找到
我试图运行NVIDIA的
Triton
推理服务器。
浏览 10
提问于2022-07-06
得票数 0
回答已采纳
1
回答
Extjs现代工具包6.5.2
Triton
绑定Multiselect字段
我试图在现代工具包中模拟存在于经典工具包中的tagfield,我找到了两种方法: { multiSelect: true, required: true, { name: 'Peter', age: 26 },
浏览 0
修改于2018-09-17
得票数 0
回答已采纳
1
回答
服务于TorchScript模型的
Triton
推理服务器
我正在尝试使用
triton
(tensorRT)推理服务器为TorchScript模型提供服务。
浏览 17
提问于2020-11-26
得票数 0
1
回答
如何使用1:N输入/输出的
Triton
服务器“集成模型”从大图像创建补丁?
我正在尝试将一个非常大的映像输入
Triton
服务器。我需要将输入的图像分割成补丁,然后一个接一个地将这些补丁输入到tensorflow模型中。图像有一个可变的大小,因此每个调用的补丁数N是可变的。我认为调用以下步骤的
Triton
集成模型将完成这项工作: 用于创建补丁的python模型(预处理)。
浏览 5
修改于2021-05-04
得票数 7
1
回答
triton
推理服务器:具有输入形状BxN config.pbtxt的部署模型
我用码头安装了
triton
推理服务器, docker run --gpus=1 --rm -p8000:8000 -p8001:8001 -p8002:8002 -v /mnt/data/nabil/
triton
_server
浏览 16
提问于2022-09-28
得票数 0
1
回答
如何使用C#向
TRITON
60系列60 mm小型信息亭打印机发送Ascii命令
我需要发送Ascii命令到
TRITON
60系列60毫米微型信息亭,并希望获得使用C#代码的状态 例如:"DLE EOT SOH“这是用于获取打印机实时状态的ascii代码,如何使用C#将此命令发送到打印机并获取打印机的状态
浏览 2
修改于2018-08-05
得票数 1
2
回答
有没有办法从
triton
推断服务器获取config.pbtxt文件?
nvidia/tritonserver:22.06-py3 \我想从
triton
浏览 41
提问于2022-07-07
得票数 2
2
回答
未能在捕食者
Triton
700上看到nvme SSD来进行安装
我需要安装Ubuntu在我的宏碁捕食者
Triton
700的开发和现场USB未能看到NVME SSD驱动器上安装。它只显示USB驱动器。
浏览 0
修改于2022-04-12
得票数 1
1
回答
是否可以将Nvidia
Triton
Inference Server模型存储库中的另一个模型与自定义Python模型一起使用?
我想在我的
Triton
Inference Server模型存储库中使用另一个自定义Python模型中的模型,该模型位于同一存储库中。有可能吗?如果是,该怎么做呢?
浏览 7
提问于2021-07-07
得票数 0
1
回答
清算-服务-
Triton
2022-06-18 16:21:19,790 - clearml.Task - INFO -没有找到存储库,而是存储脚本代码
在运行以下命令时,我发现了这个错误:“file example.env -f docker-复合-
triton
.yml up”。实际上,当我第一次运行这个命令时,它起了作用。
浏览 3
修改于2022-06-18
得票数 0
1
回答
将faster_rcnn_r50预培训转换为托管在
Triton
模型服务器中的ONNX
--dynamic-export \ model.test_cfg.deploy_nms_pre=-1 \
Triton
的onnx模型摘要如下所示 "name": "fasterrcnn_model", "platform在向
triton
发送带有示例图像的推理请求后,我将得到以下响应。
浏览 3
提问于2021-12-01
得票数 0
回答已采纳
2
回答
/dev/md1上的DegradedArray事件
kernel: [24015352.812156] __ratelimit: 134 callbacks suppressed Feb 23 09:00:58
triton
1017 kernel: [Feb 23 09:00:58
triton
1017 kernel: [24015352.812172] mdadm: sending ioctl 1261 to a partition!23 14:57:16
triton
1017 kernel: [24036730.523346] ata1.00: configured for UDMA
浏览 0
修改于2013-02-23
得票数 8
回答已采纳
2
回答
Mercurial不知道是否存在回购
以下是服务器的输出,它应该比我更好地解释了问题:drwxr-xr-x 4 david david 40962011-11-19 17:44 .hgdavid@
triton
:~/www/
triton
david@
triton
:~/www/
浏览 0
提问于2011-11-20
得票数 2
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
点击加载更多
领券