首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Torchscript与TensorRT的实时推理

Torchscript与TensorRT的实时推理
EN

Stack Overflow用户
提问于 2021-02-08 22:46:23
回答 2查看 1K关注 0票数 2

我已经训练了一个对象检测模型,用于生产实时应用程序.我有以下两个选择。有人能建议什么是最好的方式运行Jetson的最佳性能推断吗?任何其他建议也是受欢迎的。

  1. 将模型转换为ONXX格式并与TensorRT一起使用
  2. 将模型保存为Torchscript并在C++中运行推理
EN

回答 2

Stack Overflow用户

发布于 2021-02-10 14:14:59

在Jetson硬件上,我的经验是使用TensorRT绝对更快。您可以使用来自NVIDIA的TensorRT将ONNX模型转换为ONNXParser。要获得最佳性能,可以选择使用混合精度。如何将ONNX转换为TensorRT将在这里解释:TensorRT。第3.2.5节用于python绑定,第2.2.5节用于C++绑定。

票数 4
EN

Stack Overflow用户

发布于 2022-08-02 10:29:32

我对Jetson没有任何经验,但是Jetson的速度比ONNX或Py手电筒略快一些。TorchScript与pyTorch没有任何区别。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/66110472

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档