Google Cloud ML 是否仅支持针对多 GPU 训练作业的分布式 Tensorflow?

Does Google Cloud ML only support distributed Tensorflow for Multiple GPU training jobs?

我想 运行 在 Cloud ML 上使用多个 GPU 的 Tensorflow 应用程序。

我的 Tensorflow 应用程序是在非分布式范式中编写的,概述了 here

根据我的理解,如果我想将 Cloud ML 用于 运行 同一个应用程序,具有多个 GPU,那么该应用程序必须使用 scale tier CUSTOM,我需要设置参数服务器,工作服务器似乎成为分布式张量流范例。 Link here

这是在 Cloud ML 上 运行 多个 GPU 训练作业的唯一方法吗?

是否有指南可以帮助我将我的多 GPU(基于塔式)训练应用程序所需的更改范围扩大到分布式张量流应用程序?

您可以使用仅具有单个主节点且没有 workers/parameter 服务器的自定义层。这些是可选参数。

那么complex_model_m_gpu有4个GPU,complex_model_l_gpu有8个。