Vertex AI 自定义预测与 Google Kubernetes Engine
Vertex AI custom prediction vs Google Kubernetes Engine
我一直在探索将 Vertex AI 用于我的机器学习工作流程。因为在 Vertex AI 中不可能仅使用一个节点将不同模型部署到同一端点,所以我正在考虑 。通过这种解决方法,我将无法使用许多 Vertex AI 功能,例如模型监控、功能归因等,我认为它只是成为 运行 预测应用程序的托管替代方案,例如 GKE簇。因此,除了成本差异之外,我正在探索 运行 Vertex AI 与 GKE 上的自定义预测容器是否会涉及任何限制,例如,只有 N1 机器类型可用用于 Vertex AI 中的预测
有一个类似的,但是我没有提出具体的问题,希望得到解答。
- 我不确定可用的磁盘 space。在Vertex AI中,可以指定机器类型,比如n1-standard-2等,但是我不确定什么磁盘space可用,if/how可以指定吗?在自定义容器代码中,我可能会在处理之前将多个模型工件或来自外部来源的数据复制到本地目录,因此了解任何磁盘 space 限制很重要。
- 对于 Vertex AI 中的自定义训练,可以使用交互式 shell 检查训练代码为 运行 的容器,如 here 所述。对于自定义预测容器来说,这样的事情可能吗?我没有在文档中找到任何内容。
- 对于自定义训练,可以使用私有 IP 进行自定义训练,如 here 所述。同样,我没有在文档中找到任何类似的自定义预测,这可能吗?
如果您知道任何其他可能的限制,请post。
- 我们没有指定磁盘大小,因此默认为 100GB
- 我现在还不知道这个。但如果它是自定义容器,您可以 运行 在本地或 GKE 上进行调试。
- 你在找这个吗? https://cloud.google.com/vertex-ai/docs/predictions/using-private-endpoints
我一直在探索将 Vertex AI 用于我的机器学习工作流程。因为在 Vertex AI 中不可能仅使用一个节点将不同模型部署到同一端点,所以我正在考虑
有一个类似的
- 我不确定可用的磁盘 space。在Vertex AI中,可以指定机器类型,比如n1-standard-2等,但是我不确定什么磁盘space可用,if/how可以指定吗?在自定义容器代码中,我可能会在处理之前将多个模型工件或来自外部来源的数据复制到本地目录,因此了解任何磁盘 space 限制很重要。
- 对于 Vertex AI 中的自定义训练,可以使用交互式 shell 检查训练代码为 运行 的容器,如 here 所述。对于自定义预测容器来说,这样的事情可能吗?我没有在文档中找到任何内容。
- 对于自定义训练,可以使用私有 IP 进行自定义训练,如 here 所述。同样,我没有在文档中找到任何类似的自定义预测,这可能吗?
如果您知道任何其他可能的限制,请post。
- 我们没有指定磁盘大小,因此默认为 100GB
- 我现在还不知道这个。但如果它是自定义容器,您可以 运行 在本地或 GKE 上进行调试。
- 你在找这个吗? https://cloud.google.com/vertex-ai/docs/predictions/using-private-endpoints