我有一个Keras (而不是tf.keras)模型,我量化了它(训练后)在嵌入式设备上运行它。
为了将模型转换为量化的tflite模型,我尝试了不同的方法,并以大约5个版本的量化模型结束。它们都有稍微不同的大小,但它们似乎都在我的x86机器上工作。所有模型都显示不同的推理时间。
现在,我想检查模型是如何被量化的(完全,只有权重,.)因为嵌入式解决方案只需要一个完全量化的模型。我希望看到更多的细节,例如,重量的差异(也许解释不同的模型大小)。模型摘要没有给出任何见解。
谢谢
更多解释:
模型应该被完全量化,正如我所用的。
converter.inference_input_type = tf.uint8
converter.inference_output_type = tf.uint8在转换过程中。但是,我必须使用TF1.x版本进行转换,或者使用TF2.x分别使用tf.compat.v1.lite.TFLiteConverter.from_keras_model_file。因此,我不确定使用“经典”TF1.x版本或tf.compat.v1的输出模型。版本。
--创建不同模型的方式
发布于 2020-06-29 06:22:32
内特恩是一个可视化网络的方便工具。您可以选择各个层,并查看权重、偏差、输入和输出的类型和值。
https://stackoverflow.com/questions/62592265
复制相似问题