首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用NVIDIA TensorRT推理引擎运行Tensorflow

使用NVIDIA TensorRT推理引擎运行Tensorflow
EN

Stack Overflow用户
提问于 2016-12-14 20:09:12
回答 2查看 7.5K关注 0票数 9

我想使用NVIDIA TensorRT来运行我的Tensorflow模型。目前,TensorRT支持Caffe prototxt网络描述符文件。

我找不到将Tensorflow模型转换为Caffe模型的源代码。有什么变通方法吗?

EN

回答 2

Stack Overflow用户

发布于 2016-12-30 18:38:45

TensorRT 3.0支持通过其UFF (通用框架格式)导入/转换TensorFlow图形。某些层实现缺失,需要通过IPlugin接口进行自定义实现。

以前的版本不支持TensorFlow模型/检查点的本机导入。

您还可以做的是将层/网络描述导出为您自己的中间格式(如文本文件),然后使用TensorRT C++应用编程接口构建用于推理的图形。您必须单独导出卷积权重/偏差。一定要注意权重格式- TensorFlow使用NHWC,而TensorRT使用NCHW。对于权重,TF使用RSCK (filter_height,filter_width,input_depth,output_depth),TensorRT使用KCRS。

有关张量格式的扩展讨论,请参阅此白皮书:https://arxiv.org/abs/1410.0759

此外,此链接还包含有用的相关信息:https://www.tensorflow.org/versions/master/extend/tool_developers/

票数 13
EN

Stack Overflow用户

发布于 2017-10-23 10:06:21

由于新的TensorRT 3添加了对TensorFlow的支持,因此目前不需要解决方法。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41142284

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档