将MLFlow与Kubeflow集成

我正在尝试将MLFlow服务器与我在GCP上的Kubeflow集群集成在一起。为此,我创建一个MLFlow部署,并使用Loadbalancer对其进行公开。

机器学习代码作为pod部署在Kubeflow集群上。 MLflow服务器IP:PORT用于记录参数(例如超参数)和工件(例如模型)。

问题是工件仅记录在docker映像(带有机器学习代码的pod)中。另一方面,在提供MLflow服务器IP:PORT后,参数日志记录可以很好地工作。

这是屏幕截图。

将MLFlow与Kubeflow集成

hebeipl 回答:将MLFlow与Kubeflow集成

简单的解决方案是创建一个卷并将其安装到ml模式容器和mlflow容器上。这仅表明您的文件不在UI可以访问的卷中。请分享有关mlflow pod和ml模型pod的详细信息。 可以说Mod1是您模型的吊舱 Mlflowpod是部署mlflow的地方。 您创建了一个“ Mlflow工件”卷,并将其附加到两个吊舱。并将其设置为mlflow服务的默认后端uri。这肯定会有所帮助。由于两个吊舱都位于同一群集中,因此您面临任何负载平衡或路由问题的可能性非常低。

本文链接:https://www.f2er.com/3166681.html

大家都在问