首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >TF lite模型在使用Androids NNAPI时性能较差

TF lite模型在使用Androids NNAPI时性能较差
EN

Stack Overflow用户
提问于 2019-04-30 20:02:43
回答 1查看 642关注 0票数 3

我正在小米MI9上使用TFLite模型基准测试工具1对各种tensorflow-lite模型进行基准测试。我注意到,当我在Androids神经网络API上启用推理时,许多模型的性能会变差。

使用NNAPI时,模型表现较差的原因可能是什么?

我的猜测是,太大的模型不能在手机的协处理器上正确执行,必须将数据来回发送到CPU。

EN

回答 1

Stack Overflow用户

发布于 2019-05-02 05:39:19

最可能的原因是Alex建议的主题,特别是如果您正在观察经过良好测试的标准模型,如Mobilenet。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55920552

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档