首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用of运行时,用不同的硬件加速器执行NN模型图的不同操作

使用of运行时,用不同的硬件加速器执行NN模型图的不同操作
EN

Stack Overflow用户
提问于 2022-02-24 13:33:37
回答 1查看 66关注 0票数 0

我试图通过OnnxRuntime利用NNAPI在Android设备上进行NN模型推断。基于youtube视频:https://www.youtube.com/watch?v=Ij5MoUnLQ0E,可以在该模型中为运营商指定硬件加速器。任何关于如何进行这方面的指导都将不胜感激。

EN

回答 1

Stack Overflow用户

发布于 2022-03-08 20:38:03

在NNAPI中,可以发现存在哪些硬件加速器,并为运行模型选择特定的加速器。

如果应用程序指定了多个加速器,则NNAPI运行时根据每个加速器的特性及其支持的层对工作进行分区。

一个程序不可能一层一层地做出这个决定。如果这是你所需要的,你可能不得不把你的模型分解成子模型。

有关详细信息,请参阅NNAPI文档中的设备发现和分配部分。

我不熟悉OnnxRuntime。我不知道这个包是否公开了这个功能。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/71252796

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档