首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在电话硬件上运行ML模型的可行性?

在电话硬件上运行ML模型的可行性?
EN

Stack Overflow用户
提问于 2019-10-31 12:21:23
回答 1查看 37关注 0票数 0

我已经训练了一个TensorFlow模型,它需要我的RTX2080在每个动作上花费几秒钟(除了初始化模型所需的20-30秒)。

我一直在考虑将其转换为在tensorflow lite上运行的iOS/Android应用程序,但除了将模型转换为tensorflow lite模型等技术挑战外,

我想知道这个在手机硬件上运行的可行性,即使是在一个相当现代的内置GPU的手机上,对于实际目的来说,这仍然可能太慢了吗?

使用tensorflow lite构建iOS/Android应用程序的人能对性能和其他实际考虑因素发表评论吗?tensorflow lite是手机负责计算的地方。

例如,让我自己的服务器在AWS上服务请求的唯一另一种选择,如果应用程序有大量使用,将成为一项主要支出。

EN

回答 1

Stack Overflow用户

发布于 2019-10-31 14:10:29

我使用TensorFlow lite在swift中创建了一个图像识别应用程序,没有发现任何性能问题。预测持续了3-5秒,我个人认为这不是我建议使用TF Model.Thanks进行应用程序的bad.So!

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58636866

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档