首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用Nvidia的张量RT在Jetson TX1上运行预先训练的tensorflow模型?

如何使用Nvidia的张量RT在Jetson TX1上运行预先训练的tensorflow模型?
EN

Stack Overflow用户
提问于 2017-02-24 19:33:09
回答 2查看 1.7K关注 0票数 0

在Nvidia的博客中,他们介绍了他们的TensorRT如下:

NVIDIA TensorRT™是一种用于生产部署深度学习应用的高性能神经网络推理机。TensorRT可用于快速优化、验证和部署经过训练的神经网络,用于向超级计算机数据中心、嵌入式或汽车产品平台进行推理。

所以我想知道,如果我有一个预先训练过的Tensorflow模型,我能在Jetson TX1中的TensorRT中使用它进行推理吗?

EN

回答 2

Stack Overflow用户

发布于 2017-08-02 03:01:03

UPDATE (2020.01.03):现在TensorRT支持TensorFlow 1.X和2.0 (在Trt V6 &7上进行测试:参见本教程:https://docs.nvidia.com/deeplearning/frameworks/tf-trt-user-guide/index.html)。

基于Nvidia论坛的这个职位,您现在似乎可以使用TensorRT进行caffemodel而不是tensorflow模型的推理。除了tensorRT,在tx1上构建tensorflow是另一个问题(参见此处:https://github.com/ugv-tracking/cfnet)。

票数 0
EN

Stack Overflow用户

发布于 2018-01-02 08:55:46

在JetPack 3.1中,NVIDIA还增加了对Tensorflow的TensorRT支持。因此,经过训练的TF模型可以直接部署在JetsonTX1/TK1/TX2中。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/42446876

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档