首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何将ML组件模型保存到设备的持久化存储中

如何将ML组件模型保存到设备的持久化存储中
EN

Stack Overflow用户
提问于 2018-06-12 10:31:51
回答 1查看 1.9K关注 0票数 3

我刚刚开始探索谷歌的Firebase ML工具包,以测试人脸识别能力。我试过正式的样本,效果很好。

虽然,根据它的官方文档,我们可以安排下载所需的ML模型的安装时间,但我需要一种将模型预装到Android设备上的方法,以便它可以在我的应用程序中任何时候在离线场景(w/o internet)中使用。如果有,这将对我的用例有很大的帮助。

谢谢。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-06-12 17:41:21

到目前为止,使用ML时,您无法以这种方式将人脸检测模型预装到设备上。正如您提到的,模型可以在安装时下载,但问题表明,您希望超越这一点-即在安装期间没有互联网。如果没有互联网,那么应用程序将无法下载和安装,这将限制您的发行。

更新

从评论中确认,用户希望模型可以脱机使用,即使在安装期间不下载一次。

到目前为止,这还不支持内置模型,如人脸检测。

但是,如果您使用自定义tflite模型(即使用您自己的模型,而不是使用内置模型),那么当您在桌面上构建它并按您的建议手动分发时,您可以将它捆绑在您的应用程序中。这里是定制模型API的文档,它还包含用于Android / iOS的快速入门应用程序的链接。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50815020

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档