首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么在tensorflow-lite中调用MicroInterpreter之前,我们需要为特定的模型定义MicroMutableOpResolver或AllOpsResolver?

为什么在tensorflow-lite中调用MicroInterpreter之前,我们需要为特定的模型定义MicroMutableOpResolver或AllOpsResolver?
EN

Stack Overflow用户
提问于 2021-10-18 11:14:34
回答 1查看 89关注 0票数 0

我目前正在尝试为微控制器构建一个tflite模型。在创建测试文件时,我遇到了一段代码,其中测试文件中使用MicroMutableOpResolver来加载模型架构。但是我已经在我的代码中包含了模型的c转储,那么为什么还要使用解析器呢?是不是模型的C转储没有任何模型架构的信息,只包含权重?或者是我遗漏了什么?

Here is the snippet of the code

EN

回答 1

Stack Overflow用户

发布于 2021-10-31 20:50:18

MicroMutableOpResolver加载MicroInterpreter.解释模型所需的操作子集或者,也可以使用加载所有可用操作的AllOpsResolver,但不推荐这样做,因为内存使用量很大。

另请参阅:Instantiate operations resolver

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/69615069

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档