我正在尝试将我的tensorflow分割模型转换为带有量化的openvino。我使用openvino模型优化器将我的.pb模型转换为中间表示。而是如何量化模型。在官方文档中,使用DL workbench编写它。但在工作台中,我只有检测和分类数据集。

我可以在没有数据集的情况下将我的模型转换为int8吗?或者我可以创建要分割的数据集吗?
发布于 2019-10-17 17:59:06
将模型从FP32转换为INT8的总体流程是:
使用原始模型选择基准模型并选择适当的数据集为已校准模型运行基线inference
<>F217
只有FP32格式的一些卷积模型可以量化为INT8。如果您的模型不兼容,您将收到一条错误消息。
创建配置的第二个阶段是添加示例数据集。您可以导入数据集,自动生成包含高斯分布噪声的测试数据集,或选择之前上传的数据集。
您可以在以下链接中找到更多详细信息:http://docs.openvinotoolkit.org/latest/_docs_Workbench_DG_Select_Datasets.html
发布于 2021-10-21 09:00:37
您可以在OpenVINO中找到有关低精度推理的其他信息:
优化工具通用方法:https://docs.openvino.ai/latest/openvino_docs_IE_DG_Int8Inference.html
(
如果你还有问题,请告诉我。
https://stackoverflow.com/questions/58287316
复制相似问题