我是一个相对经验丰富的人工智能实践者,然而,当涉及到这些模型的部署时,我是一个完全的新手。我遵循了一个在线教程,该教程使用Docker Desktop在本地部署模型。它为前端和后端创建了一堆容器。我在每个容器中安装了Tensorflow来运行AI模型(在Dockerfile文件中运行pip3 install tensorflow )。但是,我不能在Kubernetes上部署它。我质疑了允许将Docker堆栈发送到Kubernetes的选项。当我运行docker images时,我可以看到前端和后端的图像。下一步,我创建了一个GCP项目,并在其中创建了集群。然后,我将这些图像以特定格式的gcr.io/project/name:tag标记到前端和后端,然后将它们推送到前端和后端。然后我部署了这两个组件,然后公开了它们以及fdep (前端)和bdep (后端)。它们都运行正常,如下所示:
但是,当我转到前端外部ip并运行模型时,什么也没有发生。就好像后端没有输出任何东西一样。使用postman在后端外部IP上发布请求,得到的结果如下:
这里有什么帮助吗。我做错了什么?
发布于 2020-04-26 02:48:38
由于这个多容器docker应用程序最初不是为kubernetes开发的,因此请确保在为您的后端生成服务时指定一个名称。
kubectl公开部署bdep --端口8081 --name (name-that-the-front-end-apps-expect)
在您的示例中,如果没有--name选项,服务名默认为部署名称"bdep",但前端应用程序期望的名称是"backend“。
https://stackoverflow.com/questions/61429807
复制相似问题