
正如您在TensorFlow中实现的量化MobileNet模型的屏幕截图中所看到的,仍然有一些浮点操作。量化是通过graph_transform工具在TensorFlow中完成的。
图像中的红色椭圆在右侧大小的文本框中有其描述。“深度”是一个期望"DT_FLOAT“输入的"DepthwiseConv2dNative”操作。
尽管较低的Relu6执行8位量化操作,但结果必须经过"(Relu6)“,这是一个”反等“运算,以便为深度卷积产生"DT_FLOAT”输入。
为什么TF graph_transform工具遗漏了深度卷积操作?谢谢。
发布于 2018-01-09 01:02:56
不幸的是,在标准的TensorFlow中没有深度conv的量化版本,所以它回到了浮点实现,并在前后进行了转换。要获得完整的8位MobileNet实现,您需要查看TensorFlow Lite,您可以在此处了解更多信息:
https://stackoverflow.com/questions/48121702
复制相似问题