我想在NVIDIA Jetson Nano上运行从谷歌AutoML视觉导出的模型。因为这很容易,所以我想使用预先构建的容器在官方Edge containers tutorial之后进行预测。
问题是,存储在Google container Registry (gcr.io/automl-vision-ondevice/gcloud-container-1.12.0:latest)中的预建CPU容器是基于amd64 arch的,而NVIDIA Jetson Nano使用的是arm64 arch (Ubuntu18.04)。这就是为什么“码头跑动...”返回:
docker image error: standard_init_linux.go:211: exec user process caused “exec format error”我能做什么?我是否应该构建一个类似于预先构建的兼容arm64 arch的容器?
发布于 2020-06-04 19:08:12
有两个想法可以帮助你实现你的目标:
Idea 1你可以用*.tflite格式导出模型来做你的检测。
Idea 2API将模型作为服务部署在AutoML上,并使用python或任何其他支持的语言调用它。
https://stackoverflow.com/questions/59631683
复制相似问题