首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使tensorflow对象检测更快-r cnn模型在Android上工作?

如何使tensorflow对象检测更快-r cnn模型在Android上工作?
EN

Stack Overflow用户
提问于 2019-03-15 11:06:13
回答 2查看 3.7K关注 0票数 3

我有一个关于Tensorflow对象检测API的问题。我用自己的交通标志分类数据集( dataset )对更快的R-CNN初始v2模型进行了培训,我希望将其部署到Android上,但用于Android的Tensorflow对象检测API和/或Tensorflow Lite似乎只支持SSD模型。

有没有办法将更快的R模式部署到Android上?我的意思是,我怎样才能将速度更快的R冻结推理图放到android中,而不是SSD的冻结推理图?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2019-03-15 13:59:42

对于SSD模型,必须可以使用export_tflite_ssd_graph.py工具。但是:

此时只支持SSD模型。目前不支持像faster_rcnn这样的模型。

有关详细信息,请参阅本指南

票数 5
EN

Stack Overflow用户

发布于 2020-08-12 13:15:15

实现这一目标的一种方法是制作一个烧瓶 API,它将包含用于对给定图像进行预测的所有代码,并将其发布到远程服务器(如Heroku )。您可以调用API,只需将映像转换为Base64或32,然后将其发送到部署在Heroku上的REST 。API将计算结果(推断),并将输出图像转换回Base64,并将其发送回安卓应用程序。这个安卓应用程序将把Base64转换成位图和瓦拉!你做了预测。在Android中,您可以使用HttpConnection库或仅使用Retrofit进行远程API调用。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55181222

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档