我一直在探索使用顶点AI作为我的机器学习工作流。因为在顶点AI中只使用一个节点将不同的模型部署到同一个端点是不可能的,所以我正在考虑一个解决办法。有了这个解决办法,我将无法使用许多顶点AI特性,比如模型监视、特征属性等等,我认为它只是一个托管的替代方案,可以代替在GKE集群上运行预测应用程序。因此,除了成本差异之外,我还在探索在顶点AI和GKE上运行自定义预测容器是否会涉及到任何限制,例如,只有N1机器类型可以用于顶点AI中的预测。
有一个类似的问题,但我没有提出我希望已经回答的具体问题。
如果你知道任何其他可能的限制,请张贴。
发布于 2021-11-17 04:10:54
https://stackoverflow.com/questions/69978953
复制相似问题