0

我想使用Cloud ML上的多个GPU运行Tensorflow应用程序。Google Cloud ML是否仅支持分布式Tensorflow以用于多个GPU培训工作?

我Tensorflow应用程序是用在非分布式模式,即概括here

据我了解,如果我想使用云ML运行此相同的应用程序,具有多重GPU的,那么应用程序必须使用规模CUSTOM层,我需要设置参数服务器,工作服务器,这似乎是一个分布式张量流模式。 Link here

这是在Cloud ML上运行多个GPU培训作业的唯一方法吗?

是否有帮助我将我的multiGPU(基于塔)培训应用程序所需的更改范围扩展到分布式tensorflow应用程序的指南?

回答

1

您可以将CUSTOM层仅使用一个主节点,而不使用工作站/参数服务器。这些是可选参数。

Then complex_model_m_gpu has 4 GPUs and complex_model_l_gpu has 8.

相关问题