首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在计算机上而不是在TPU上运行这些Coral AI模型的推理?

如何在计算机上而不是在TPU上运行这些Coral AI模型的推理?
EN

Stack Overflow用户
提问于 2022-04-28 19:18:17
回答 1查看 138关注 0票数 0

我有Coral AI usb TPU,我成功地运行了入门示例,部署了已经编译/训练过的示例模型(图像分类),并在TPU上运行了一个鹦鹉图像推理:

代码语言:javascript
复制
python3 examples/classify_image.py \
--model test_data/mobilenet_v2_1.0_224_inat_bird_quant_edgetpu.tflite \
--labels test_data/inat_bird_labels.txt \
--input test_data/parrot.jpg

但是,我想在计算机CPU (例如,我的笔记本电脑或Raspberry Pi )中运行相同模型的推理,以比较在加速器中运行推理所需的时间,比如Coral AI和通用CPU。

如果我的理解是正确的,那么示例mobilenet_v2_1.0_224_inat_bird_quant_edgetpu.tflite是一个包含those模型的文件,该模型是量化的,并为edge tpu编译(我记得只支持8位模型,或者这些行中的某些内容)。

我在哪里可以找到这个模型而不需要编译呢?如何为我的PC (Linux发行版Ubuntu,或Raspberry Pi上的Raspbian )编译它,并在CPU上运行推断呢?

我所能找到的只有以下文件:数据,特别是mobilenet_v2_1.0_224_inat_bird_quant.tflite,它似乎是相同的,但不是为珊瑚编译的。这个模型(似乎是量化的)是否适合用于CPU的编译?如何做到这一点?

谢谢

EN

回答 1

Stack Overflow用户

发布于 2022-04-29 18:45:23

  • 请检查这个回购测试模型:数据
  • 请使用edgetpu编译器编译int8 tflite模型:edgetpu.ipynb
  • 如果将未编译的tflite(mobilenet_v2_1.0_224_inat_bird_quant.tflite)文件传递给classify_image.py,它将只运行classify_image.py。
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/72049118

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档