export_inference_graph.py的输出是
- model.ckpt.data-00000-of-00001
- model.ckpt.info
- model.ckpt.meta
- frozen_inference_graph.pb
+ saved_model (a directory)而export_tflite_ssd_graph.py的输出
- tflite_graph.pbtxt
- tflite_graph.pb这两个冻结的文件有什么不同?
发布于 2019-11-18 13:37:46
我假设您正在尝试在移动设备上使用您的对象检测模型。为此,您需要将模型转换为tflite版本。但是,您不能将像fasterRCNN这样的模型转换为tflite。您需要选择用于移动设备的SSD型号。
在您的部署中使用像fasterRCNN这样的模型的另一种方法是,使用亚马逊EC2 tensorflow AMI,将您的模型部署到云上,并将其路由到您的网站域或移动设备。当服务器通过用户填写的http表单获取图像时,model会在您的云服务器上对其进行处理,并将其发送回您需要的终端。
https://stackoverflow.com/questions/58724583
复制相似问题