首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何将分割模型转换为openvino int8模型?

如何将分割模型转换为openvino int8模型?
EN

Stack Overflow用户
提问于 2019-10-08 21:25:43
回答 2查看 326关注 0票数 0

我正在尝试将我的tensorflow分割模型转换为带有量化的openvino。我使用openvino模型优化器将我的.pb模型转换为中间表示。而是如何量化模型。在官方文档中,使用DL workbench编写它。但在工作台中,我只有检测和分类数据集。

我可以在没有数据集的情况下将我的模型转换为int8吗?或者我可以创建要分割的数据集吗?

EN

回答 2

Stack Overflow用户

发布于 2019-10-17 17:59:06

将模型从FP32转换为INT8的总体流程是:

使用原始模型选择基准模型并选择适当的数据集为已校准模型运行基线inference

  • Configure settings

  • Configure calibration

  • View results

  • Compare
  • FP32
  • INT8
    • FP32
    • INT8 FP32 inference

    <>F217

只有FP32格式的一些卷积模型可以量化为INT8。如果您的模型不兼容,您将收到一条错误消息。

创建配置的第二个阶段是添加示例数据集。您可以导入数据集,自动生成包含高斯分布噪声的测试数据集,或选择之前上传的数据集。

您可以在以下链接中找到更多详细信息:http://docs.openvinotoolkit.org/latest/_docs_Workbench_DG_Select_Datasets.html

票数 0
EN

Stack Overflow用户

发布于 2021-10-21 09:00:37

您可以在OpenVINO中找到有关低精度推理的其他信息:

优化工具通用方法:https://docs.openvino.ai/latest/openvino_docs_IE_DG_Int8Inference.html

(

  1. )

如果你还有问题,请告诉我。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58287316

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档