Vertex AI 自定义预测与 Google Kubernetes Engine

Vertex AI custom prediction vs Google Kubernetes Engine

我一直在探索将 Vertex AI 用于我的机器学习工作流程。因为在 Vertex AI 中不可能仅使用一个节点将不同模型部署到同一端点,所以我正在考虑 。通过这种解决方法,我将无法使用许多 Vertex AI 功能,例如模型监控、功能归因等,我认为它只是成为 运行 预测应用程序的托管替代方案,例如 GKE簇。因此,除了成本差异之外,我正在探索 运行 Vertex AI 与 GKE 上的自定义预测容器是否会涉及任何限制,例如,只有 N1 机器类型可用用于 Vertex AI 中的预测

有一个类似的,但是我没有提出具体的问题,希望得到解答。

如果您知道任何其他可能的限制,请post。

  1. 我们没有指定磁盘大小,因此默认为 100GB
  2. 我现在还不知道这个。但如果它是自定义容器,您可以 运行 在本地或 GKE 上进行调试。
  3. 你在找这个吗? https://cloud.google.com/vertex-ai/docs/predictions/using-private-endpoints