首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >检查模型的量化状态

检查模型的量化状态
EN

Stack Overflow用户
提问于 2020-06-26 09:54:26
回答 1查看 1.3K关注 0票数 1

我有一个Keras (而不是tf.keras)模型,我量化了它(训练后)在嵌入式设备上运行它。

为了将模型转换为量化的tflite模型,我尝试了不同的方法,并以大约5个版本的量化模型结束。它们都有稍微不同的大小,但它们似乎都在我的x86机器上工作。所有模型都显示不同的推理时间。

现在,我想检查模型是如何被量化的(完全,只有权重,.)因为嵌入式解决方案只需要一个完全量化的模型。我希望看到更多的细节,例如,重量的差异(也许解释不同的模型大小)。模型摘要没有给出任何见解。

  • 你能告诉我怎么做吗?
  • 有人知道TF1.x版本的tflite转换是否总是完全量化的吗?

谢谢

更多解释:

模型应该被完全量化,正如我所用的。

代码语言:javascript
复制
converter.inference_input_type = tf.uint8
converter.inference_output_type = tf.uint8

在转换过程中。但是,我必须使用TF1.x版本进行转换,或者使用TF2.x分别使用tf.compat.v1.lite.TFLiteConverter.from_keras_model_file。因此,我不确定使用“经典”TF1.x版本或tf.compat.v1的输出模型。版本。

--创建不同模型的方式

  1. 使用TF1.3转换h5模型
  2. 使用TF1.5.3转换h5模型
  3. 使用TF2.2转换h5模型
  4. 用TF1.3将h5模型转换为pb
  5. 用TF1.5将h5模型转换为pb
  6. 用TF2.2将h5模型转换为pb
  7. 使用TF1.5.3转换转换的pb模型
  8. 使用TF2.2转换转换的pb模型
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-06-29 06:22:32

内特恩是一个可视化网络的方便工具。您可以选择各个层,并查看权重、偏差、输入和输出的类型和值。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62592265

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档