首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >export_inference_graph.py vs export_tflite_ssd_graph.py

export_inference_graph.py vs export_tflite_ssd_graph.py
EN

Stack Overflow用户
提问于 2019-11-06 14:53:19
回答 1查看 696关注 0票数 0

export_inference_graph.py的输出是

代码语言:javascript
复制
 - model.ckpt.data-00000-of-00001
 - model.ckpt.info
 - model.ckpt.meta
 - frozen_inference_graph.pb
 + saved_model (a directory)

export_tflite_ssd_graph.py的输出

代码语言:javascript
复制
- tflite_graph.pbtxt
- tflite_graph.pb

这两个冻结的文件有什么不同?

EN

回答 1

Stack Overflow用户

发布于 2019-11-18 13:37:46

我假设您正在尝试在移动设备上使用您的对象检测模型。为此,您需要将模型转换为tflite版本。但是,您不能将像fasterRCNN这样的模型转换为tflite。您需要选择用于移动设备的SSD型号。

在您的部署中使用像fasterRCNN这样的模型的另一种方法是,使用亚马逊EC2 tensorflow AMI,将您的模型部署到云上,并将其路由到您的网站域或移动设备。当服务器通过用户填写的http表单获取图像时,model会在您的云服务器上对其进行处理,并将其发送回您需要的终端。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58724583

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档