我想将整数量化的tflite模型转换为Tensorflow中的冻结图 (.pb)。我在StackOverflow上阅读并尝试了许多解决方案,但都没有奏效。具体来说,toco不起作用(output_format不能是TENSORFLOW_GRAPHDEF)。
我的最终目标是通过 tf2onnx 获得一个量化的ONNX模型,但是tf2onnx不支持tflite作为输入(只支持saved_model、检查点和graph_def )。但是,在使用TFLiteConverter对经过训练的模型进行量化之后,它只返回一个tflite文件。这就是问题产生的地方。
理想流程实质上是: float32 -> tflite模型中的tf模型,int8 -> graph_def -> onnx模型。我被第二支箭卡住了。
发布于 2020-07-21 05:27:17
将tflite模型转换为.pb的能力在Tensorflow版本r1.9之后被删除。试着把你的TF版本降级到1.9,然后像这样
bazel run --config=opt \
//tensorflow/contrib/lite/toco:toco -- \
--input_file=/tmp/foo.tflite \
--output_file=/tmp/foo.pb \
--input_format=TFLITE \
--output_format=TENSORFLOW_GRAPHDEF \
--input_shape=1,128,128,3 \
--input_array=input \
--output_array=MobilenetV1/Predictions/Reshape_1这里是来源。
https://stackoverflow.com/questions/62996413
复制相似问题