首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >无法将AI模型部署到Kubernetes

无法将AI模型部署到Kubernetes
EN

Stack Overflow用户
提问于 2020-04-26 01:33:14
回答 1查看 82关注 0票数 0

我是一个相对经验丰富的人工智能实践者,然而,当涉及到这些模型的部署时,我是一个完全的新手。我遵循了一个在线教程,该教程使用Docker Desktop在本地部署模型。它为前端和后端创建了一堆容器。我在每个容器中安装了Tensorflow来运行AI模型(在Dockerfile文件中运行pip3 install tensorflow )。但是,我不能在Kubernetes上部署它。我质疑了允许将Docker堆栈发送到Kubernetes的选项。当我运行docker images时,我可以看到前端和后端的图像。下一步,我创建了一个GCP项目,并在其中创建了集群。然后,我将这些图像以特定格式的gcr.io/project/name:tag标记到前端和后端,然后将它们推送到前端和后端。然后我部署了这两个组件,然后公开了它们以及fdep (前端)和bdep (后端)。它们都运行正常,如下所示:

但是,当我转到前端外部ip并运行模型时,什么也没有发生。就好像后端没有输出任何东西一样。使用postman在后端外部IP上发布请求,得到的结果如下:

这里有什么帮助吗。我做错了什么?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-04-26 02:48:38

由于这个多容器docker应用程序最初不是为kubernetes开发的,因此请确保在为您的后端生成服务时指定一个名称。

kubectl公开部署bdep --端口8081 --name (name-that-the-front-end-apps-expect)

在您的示例中,如果没有--name选项,服务名默认为部署名称"bdep",但前端应用程序期望的名称是"backend“。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/61429807

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档