首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用tf.lite.Interpreter (python中的)来运行tflite模型(*.tflite)?

如何使用tf.lite.Interpreter (python中的)来运行tflite模型(*.tflite)?
EN

Stack Overflow用户
提问于 2019-09-05 16:45:35
回答 2查看 1.8K关注 0票数 3

根据https://www.tensorflow.org/lite/convert的指示,我已经将tensorflow推理图转换为tflite模型文件(*.tflite)。

我在我的GPU服务器上测试了tflite模型,它有4个Nvidia TITAN GPU。我使用tf.lite.Interpreter加载并运行了tflite模型文件。

它像以前的tensorflow图一样工作,然而,问题是推理变得太慢了。当我检查原因时,我发现tf.lite.Interpreter运行时GPU利用率根本就是0%。

有没有什么方法可以让我在GPU支持下运行tf.lite.Interpreter?

EN

回答 2

Stack Overflow用户

发布于 2020-05-19 15:55:55

https://github.com/tensorflow/tensorflow/issues/34536

CPU对于tflite来说已经足够好了,尤其是多核。

nvidia GPU可能没有针对tflite进行更新,tflite是针对移动GPU平台的。

票数 0
EN

Stack Overflow用户

发布于 2021-09-02 03:23:14

阴谋:他们(TF-NVIDIA)握手不让TFlite在图形处理器上工作?做一个很容易。

史蒂夫

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/57801680

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档