我知道,可以在google上部署用于培训作业的自定义容器,并且我已经能够使用命令实现相同的运行。gcloud ai-platform jobs submit training infer name --region some_region --master-image-uri=path/to/docker/image --config config.yaml
培训工作成功完成,模型获得成功,现在我想使用这个模型进行推理,但是问题是我的代码有系统级的依赖关系,所以我必须对体系结构做一些修改才能让它一直运行这些文档
我有Coral AI usb TPU,我成功地运行了入门示例,部署了已经编译/训练过的示例模型(图像分类),并在TPU上运行了一个鹦鹉图像推理:--input test_data/parrot.jpg
但是,我想在计算机CPU (例如,我的笔记本电脑或Raspberry Pi )中运行相同模型的推理,以比较在加速器中运行推理所需的时间,比如Coral