我有Coral AI usb TPU,我成功地运行了入门示例,部署了已经编译/训练过的示例模型(图像分类),并在TPU上运行了一个鹦鹉图像推理:
python3 examples/classify_image.py \
--model test_data/mobilenet_v2_1.0_224_inat_bird_quant_edgetpu.tflite \
--labels test_data/inat_bird_labels.txt \
--input test_data/parrot.jpg但是,我想在计算机CPU (例如,我的笔记本电脑或Raspberry Pi )中运行相同模型的推理,以比较在加速器中运行推理所需的时间,比如Coral AI和通用CPU。
如果我的理解是正确的,那么示例mobilenet_v2_1.0_224_inat_bird_quant_edgetpu.tflite是一个包含those模型的文件,该模型是量化的,并为edge tpu编译(我记得只支持8位模型,或者这些行中的某些内容)。
我在哪里可以找到这个模型而不需要编译呢?如何为我的PC (Linux发行版Ubuntu,或Raspberry Pi上的Raspbian )编译它,并在CPU上运行推断呢?
我所能找到的只有以下文件:数据,特别是mobilenet_v2_1.0_224_inat_bird_quant.tflite,它似乎是相同的,但不是为珊瑚编译的。这个模型(似乎是量化的)是否适合用于CPU的编译?如何做到这一点?
谢谢
发布于 2022-04-29 18:45:23
https://stackoverflow.com/questions/72049118
复制相似问题