我正在尝试将MLFlow服务器与我在GCP上的Kubeflow集群集成。为此,我创建了一个MLFlow部署,并使用负载均衡器公开它。
机器学习代码作为pod部署在Kubeflow集群上。MLflow服务器IP:端口用于记录参数(例如,超参数)和工件(例如,模型)。
问题是,这些工件只记录在docker图像中(带有机器学习代码的pod)。另一方面,在提供MLflow服务器IP:PORT之后,参数日志可以很好地工作。
这是一个截图。

发布于 2020-10-08 22:52:43
简单的解决方案是创建一个卷并将其挂载到ml mode pod和mlflow pod。这仅表明您的文件不在UI可访问的卷中。请分享mlflow pod和ml model pod的详细信息。假设Mod1是你的模型的一个pod,Mlflowpod是mlflow部署的地方。您可以创建一个卷‘Mlflow-artifacts’,将其附加到两个pod。并将其设置为mlflow服务的默认后端uri。这肯定会有所帮助。由于两个pod位于同一个集群中,因此您面临负载均衡或路由问题的可能性非常低。
https://stackoverflow.com/questions/58693698
复制相似问题