首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >顶点AI自定义预测与引擎的比较

顶点AI自定义预测与引擎的比较
EN

Stack Overflow用户
提问于 2021-11-15 18:11:54
回答 1查看 358关注 0票数 0

我一直在探索使用顶点AI作为我的机器学习工作流。因为在顶点AI中只使用一个节点将不同的模型部署到同一个端点是不可能的,所以我正在考虑一个解决办法。有了这个解决办法,我将无法使用许多顶点AI特性,比如模型监视、特征属性等等,我认为它只是一个托管的替代方案,可以代替在GKE集群上运行预测应用程序。因此,除了成本差异之外,我还在探索在顶点AI和GKE上运行自定义预测容器是否会涉及到任何限制,例如,只有N1机器类型可以用于顶点AI中的预测。

有一个类似的问题,但我没有提出我希望已经回答的具体问题。

  • 我不确定可用的磁盘空间。在顶点AI中,人们可以指定机器类型,如N1标准-2等,但我不确定哪些磁盘空间是可用的,以及是否/如何指定它?在自定义容器代码中,我可以在处理外部源之前将多个模型工件或数据复制到本地目录,因此了解任何磁盘空间限制是非常重要的。
  • 对于顶点AI中的自定义培训,可以使用交互式shell检查正在运行培训代码的容器,正如所描述的这里。对于自定义预测容器来说,这种情况可能发生吗?我在文件里什么也没找到。
  • 对于自定义培训,可以使用专用IP进行自定义培训,如这里所述。同样,我还没有在文档中找到类似于自定义预测的东西,有可能吗?

如果你知道任何其他可能的限制,请张贴。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-11-17 04:10:54

  1. 我们没有指定磁盘大小,所以默认为100‘t
  2. 我现在不知道这件事。但是,如果它是一个自定义容器,您可以只在本地或GKE上运行它,以便进行调试。
  3. 你在找这个吗?https://cloud.google.com/vertex-ai/docs/predictions/using-private-endpoints
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/69978953

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档