如何使用 gpu 并行训练 tensorflow.keras 个模型?张量流版本 2.5.0
How to train tensorflow.keras models in parallel using gpu? Tensorflow version 2.5.0
我有以下代码 运行我在另一个模块中使用自定义模型并将几个参数(学习率、卷积核大小等)作为输入
custom_model
是在tensorflow中编译tensorflow.keras.models.Model
和return模型的函数。
LOW
为训练数据集
HIGH
为目标数据集
我通过 hdf5
文件加载了它们,但数据集非常大,有 10 GB 的数量级。
通常我 运行 在 jupyter-lab 中没有问题,并且模型不消耗 GPU 上的资源。最后我保存了不同参数的权重。
现在我的问题是:
如何将其作为脚本并运行将其并行用于 k1
和 k2
的不同值。
我想像 bash 循环一样可以,但我想避免重新读取数据集。
我正在使用 Windows 10 作为操作系统。
import tensorflow as tf
physical_devices = tf.config.list_physical_devices('GPU')
for gpu_instance in physical_devices:
tf.config.experimental.set_memory_growth(gpu_instance, True)
import h5py
from model_custom import custom_model
winx = 100
winz = 10
k1 = 9
k2 = 5
with h5py.File('MYFILE', 'r') as hf:
LOW = hf['LOW'][:]
HIGH = hf['HIGH'][:]
with tf.device("/gpu:1"):
mymodel = custom_model(winx,winz,lrate=0.001,usebias=True,kz1=k1, kz2=k2)
myhistory = mymodel.fit(LOW, HIGH, batch_size=1, epochs=1)
mymodel.save_weights('zkernel_{}_kz1_{}_kz2_{}.hdf5'.format(winz, k1,k2))
我发现这个解决方案对我来说效果很好。这使得 运行 使用 MPI 和 mpi4py 在 gpus 中进行并行模型训练。当我尝试一起加载大文件和 运行 许多进程时,只有一个问题,这样进程数乘以我加载的数据就超过了我的 ram 容量。
from mpi4py import MPI
import tensorflow as tf
physical_devices = tf.config.list_physical_devices('GPU')
for gpu_instance in physical_devices:
tf.config.experimental.set_memory_growth(gpu_instance, True)
import h5py
from model_custom import custom_model
comm = MPI.COMM_WORLD
rank = comm.Get_rank()
size = comm.Get_size()
winx = 100
winy = 100
winz = 10
if rank == 10:
with h5py.File('mifile.hdf5', 'r') as hf:
LOW = hf['LOW'][:]
HIGH = hf['HIGH'][:]
else:
HIGH = None
LOW= None
HIGH = comm.bcast(HIGH, root=10)
LOW = comm.bcast(LOW, root=10)
if rank < 5:
with tf.device("/gpu:1"):
k = 9
q = rank +1
mymodel1 = custom_model(winx,winz,lrate=0.001,usebias=True,kz1=k, kz2=q)
mymodel1._name = '{}_{}_{}'.format(winz,k,q)
myhistory1 = mymodel1.fit(LOW, HIGH, batch_size=1, epochs=1)
mymodel1.save_weights(mymodel1.name +'winz_{}_k_{}_q_{}.hdf5'.format(winz, k,q))
elif 5 <= rank < 10:
with tf.device("/gpu:2"):
k = 8
q = rank +1 -5
mymodel2 = custom_model(winx,winz,lrate=0.001,usebias=True,kz1=k, kz2=q)
mymodel2._name = '{}_{}_{}'.format(winz,k,q)
myhistory2 = mymodel2.fit(LOW, HIGH, batch_size=1, epochs=1)
mymodel2.save_weights(mymodel2.name +'winz_{}_k_{}_q_{}.hdf5'.format(winz, k,q))
然后我保存到名称为 mycode.py 的 python 模块,然后我在控制台 运行
mpiexec -n 11 python ./mycode.py
我有以下代码 运行我在另一个模块中使用自定义模型并将几个参数(学习率、卷积核大小等)作为输入
custom_model
是在tensorflow中编译tensorflow.keras.models.Model
和return模型的函数。
LOW
为训练数据集HIGH
为目标数据集
我通过 hdf5
文件加载了它们,但数据集非常大,有 10 GB 的数量级。
通常我 运行 在 jupyter-lab 中没有问题,并且模型不消耗 GPU 上的资源。最后我保存了不同参数的权重。
现在我的问题是:
如何将其作为脚本并运行将其并行用于 k1
和 k2
的不同值。
我想像 bash 循环一样可以,但我想避免重新读取数据集。
我正在使用 Windows 10 作为操作系统。
import tensorflow as tf
physical_devices = tf.config.list_physical_devices('GPU')
for gpu_instance in physical_devices:
tf.config.experimental.set_memory_growth(gpu_instance, True)
import h5py
from model_custom import custom_model
winx = 100
winz = 10
k1 = 9
k2 = 5
with h5py.File('MYFILE', 'r') as hf:
LOW = hf['LOW'][:]
HIGH = hf['HIGH'][:]
with tf.device("/gpu:1"):
mymodel = custom_model(winx,winz,lrate=0.001,usebias=True,kz1=k1, kz2=k2)
myhistory = mymodel.fit(LOW, HIGH, batch_size=1, epochs=1)
mymodel.save_weights('zkernel_{}_kz1_{}_kz2_{}.hdf5'.format(winz, k1,k2))
我发现这个解决方案对我来说效果很好。这使得 运行 使用 MPI 和 mpi4py 在 gpus 中进行并行模型训练。当我尝试一起加载大文件和 运行 许多进程时,只有一个问题,这样进程数乘以我加载的数据就超过了我的 ram 容量。
from mpi4py import MPI
import tensorflow as tf
physical_devices = tf.config.list_physical_devices('GPU')
for gpu_instance in physical_devices:
tf.config.experimental.set_memory_growth(gpu_instance, True)
import h5py
from model_custom import custom_model
comm = MPI.COMM_WORLD
rank = comm.Get_rank()
size = comm.Get_size()
winx = 100
winy = 100
winz = 10
if rank == 10:
with h5py.File('mifile.hdf5', 'r') as hf:
LOW = hf['LOW'][:]
HIGH = hf['HIGH'][:]
else:
HIGH = None
LOW= None
HIGH = comm.bcast(HIGH, root=10)
LOW = comm.bcast(LOW, root=10)
if rank < 5:
with tf.device("/gpu:1"):
k = 9
q = rank +1
mymodel1 = custom_model(winx,winz,lrate=0.001,usebias=True,kz1=k, kz2=q)
mymodel1._name = '{}_{}_{}'.format(winz,k,q)
myhistory1 = mymodel1.fit(LOW, HIGH, batch_size=1, epochs=1)
mymodel1.save_weights(mymodel1.name +'winz_{}_k_{}_q_{}.hdf5'.format(winz, k,q))
elif 5 <= rank < 10:
with tf.device("/gpu:2"):
k = 8
q = rank +1 -5
mymodel2 = custom_model(winx,winz,lrate=0.001,usebias=True,kz1=k, kz2=q)
mymodel2._name = '{}_{}_{}'.format(winz,k,q)
myhistory2 = mymodel2.fit(LOW, HIGH, batch_size=1, epochs=1)
mymodel2.save_weights(mymodel2.name +'winz_{}_k_{}_q_{}.hdf5'.format(winz, k,q))
然后我保存到名称为 mycode.py 的 python 模块,然后我在控制台 运行
mpiexec -n 11 python ./mycode.py