我们在Google顶点AI中使用kpf v2,并希望记录由yaml规范构建的组件的度量值。
我们只能通过基于Python函数的组件来完成这项工作,如果我们可以使用mlpipeline-metrics (类型为Output[Metrics])直接调用log_metrics(..)。
https://www.kubeflow.org/docs/components/pipelines/sdk/pipelines-metrics/的文档说,您可以从容器内部用json将度量标准写入名为MLPipeline Metrics的OutputPath。但是这在顶点AI中不起作用,因为metr8cs没有出现在控制台中。
我们的组件设置如下:
name: a component
outputs:
- {name: MLPipeline Metrics, type: Metrics}
implementation:
container:
image: eu.gcr.io/project/knark/base:latest
command: [python3, -m, module.foo,
--metrics, {outputPath: MLPipeline Metrics}在这样编写度量文件之后:
parser = ArgumentParser()
parser.add_argument('-m', '--metrics', default='/mlpipeline-metrics.json')
opts = parser.parse_args()
metrics = {'cluster-entropy': .5, 'inertia': 100.}
with open(metrics_path, 'w') as f:
json.dump({'metrics': [{'name': m, 'value': v, 'format': 'RAW'} for m, v in metrics.items()]}, f)我们还试着设置
fileOutputs:
mlpipeline-metrics: /mlpipeline-metrics.json在组件中,这似乎是早期实现它的方法,但这似乎也不起作用。
有什么细节是我在写度量时遗漏的,还是根本不起作用,还是在顶点AI中不受支持?
发布于 2022-05-20 15:21:30
一种在文档中解释的方法,neh。但是在库贝流管道回购的问题上,他给出了一个解决方案,他修改了.yaml,并通过调用Executor类在组件代码中做了一个小的修改。
https://github.com/kubeflow/pipelines/issues/6116#issuecomment-1059174206
我向它添加了一些内容,并将其放在repo中,以便仅使用容器进行部署,并使用输入工件和输入参数添加示例。
https://stackoverflow.com/questions/69478536
复制相似问题