Google Cloud ML 是否仅支持针对多 GPU 训练作业的分布式 Tensorflow?
Does Google Cloud ML only support distributed Tensorflow for Multiple GPU training jobs?
我想 运行 在 Cloud ML 上使用多个 GPU 的 Tensorflow 应用程序。
我的 Tensorflow 应用程序是在非分布式范式中编写的,概述了 here
根据我的理解,如果我想将 Cloud ML 用于 运行 同一个应用程序,具有多个 GPU,那么该应用程序必须使用 scale tier CUSTOM,我需要设置参数服务器,工作服务器似乎成为分布式张量流范例。 Link here
这是在 Cloud ML 上 运行 多个 GPU 训练作业的唯一方法吗?
是否有指南可以帮助我将我的多 GPU(基于塔式)训练应用程序所需的更改范围扩大到分布式张量流应用程序?
您可以使用仅具有单个主节点且没有 workers/parameter 服务器的自定义层。这些是可选参数。
那么complex_model_m_gpu
有4个GPU,complex_model_l_gpu
有8个。
我想 运行 在 Cloud ML 上使用多个 GPU 的 Tensorflow 应用程序。
我的 Tensorflow 应用程序是在非分布式范式中编写的,概述了 here
根据我的理解,如果我想将 Cloud ML 用于 运行 同一个应用程序,具有多个 GPU,那么该应用程序必须使用 scale tier CUSTOM,我需要设置参数服务器,工作服务器似乎成为分布式张量流范例。 Link here
这是在 Cloud ML 上 运行 多个 GPU 训练作业的唯一方法吗?
是否有指南可以帮助我将我的多 GPU(基于塔式)训练应用程序所需的更改范围扩大到分布式张量流应用程序?
您可以使用仅具有单个主节点且没有 workers/parameter 服务器的自定义层。这些是可选参数。
那么complex_model_m_gpu
有4个GPU,complex_model_l_gpu
有8个。