如何使用批处理使 Keras ImageDataGenerator 适用于大型数据集
How to fit Keras ImageDataGenerator for large data sets using batches
我想使用 Keras ImageDataGenerator 进行数据扩充。
为此,我必须使用我的训练数据作为参数在实例化的 ImageDataGenerator 对象上调用 .fit() 函数,如下所示。
image_datagen = ImageDataGenerator(featurewise_center=True, rotation_range=90)
image_datagen.fit(X_train, augment=True)
train_generator = image_datagen.flow_from_directory('data/images')
model.fit_generator(train_generator, steps_per_epoch=2000, epochs=50)
但是,我的训练数据集太大,一次加载时无法放入内存。
因此,我想使用我的训练数据的子集分几个步骤来安装生成器。
有办法吗?
我想到的一个可能的解决方案是使用自定义生成器函数加载我的训练数据批次,并在循环中多次拟合图像生成器。但是,我不确定是否可以通过这种方式使用 ImageDataGenerator 的拟合函数,因为它可能会在每次拟合方法时重置。
作为其工作原理的示例:
def custom_train_generator():
# Code loading training data subsets X_batch
yield X_batch
image_datagen = ImageDataGenerator(featurewise_center=True, rotation_range=90)
gen = custom_train_generator()
for batch in gen:
image_datagen.fit(batch, augment=True)
train_generator = image_datagen.flow_from_directory('data/images')
model.fit_generator(train_generator, steps_per_epoch=2000, epochs=50)
ImageDataGenerator()
为您提供了批量加载数据的可能性;您实际上可以在 fit_generator()
方法中使用参数 batch_size,它与 ImageDataGenerator()
一起使用;没有必要(如果你愿意,只是为了好的练习)从头开始编写生成器。
重要提示:
从 TensorFlow 2.1 开始,.fit_generator()
已被弃用,您应该使用 .fit()
示例取自 Keras 官方文档:
datagen = ImageDataGenerator(
featurewise_center=True,
featurewise_std_normalization=True,
rotation_range=20,
width_shift_range=0.2,
height_shift_range=0.2,
horizontal_flip=True)
# compute quantities required for featurewise normalization
# (std, mean, and principal components if ZCA whitening is applied)
datagen.fit(x_train)
# TF <= 2.0
# fits the model on batches with real-time data augmentation:
model.fit_generator(datagen.flow(x_train, y_train, batch_size=32),
steps_per_epoch=len(x_train) // 32, epochs=epochs)
#TF >= 2.1
model.fit(datagen.flow(x_train, y_train, batch_size=32),
steps_per_epoch=len(x_train) // 32, epochs=epochs)
我建议阅读这篇关于 ImageDataGenenerator 和增强的优秀文章:https://machinelearningmastery.com/how-to-configure-image-data-augmentation-when-training-deep-learning-neural-networks/
您的问题的解决方案在于这行代码(简单流程或 flow_from_directory):
# prepare iterator
it = datagen.flow(samples, batch_size=1)
要创建您自己的 DataGenerator,应该看看这个 link(作为起点):https://stanford.edu/~shervine/blog/keras-how-to-generate-data-on-the-fly
重要说明 (2):
如果您使用来自 Tensorflow 的 Keras(Keras inside Tensorflow),那么对于提供的代码和您参考的教程,请确保替换 import/neural 网络创建片段:
from keras.x.y.z import A
与
from tensorflow.keras.x.y.z import A
我想使用 Keras ImageDataGenerator 进行数据扩充。 为此,我必须使用我的训练数据作为参数在实例化的 ImageDataGenerator 对象上调用 .fit() 函数,如下所示。
image_datagen = ImageDataGenerator(featurewise_center=True, rotation_range=90)
image_datagen.fit(X_train, augment=True)
train_generator = image_datagen.flow_from_directory('data/images')
model.fit_generator(train_generator, steps_per_epoch=2000, epochs=50)
但是,我的训练数据集太大,一次加载时无法放入内存。 因此,我想使用我的训练数据的子集分几个步骤来安装生成器。
有办法吗?
我想到的一个可能的解决方案是使用自定义生成器函数加载我的训练数据批次,并在循环中多次拟合图像生成器。但是,我不确定是否可以通过这种方式使用 ImageDataGenerator 的拟合函数,因为它可能会在每次拟合方法时重置。
作为其工作原理的示例:
def custom_train_generator():
# Code loading training data subsets X_batch
yield X_batch
image_datagen = ImageDataGenerator(featurewise_center=True, rotation_range=90)
gen = custom_train_generator()
for batch in gen:
image_datagen.fit(batch, augment=True)
train_generator = image_datagen.flow_from_directory('data/images')
model.fit_generator(train_generator, steps_per_epoch=2000, epochs=50)
ImageDataGenerator()
为您提供了批量加载数据的可能性;您实际上可以在 fit_generator()
方法中使用参数 batch_size,它与 ImageDataGenerator()
一起使用;没有必要(如果你愿意,只是为了好的练习)从头开始编写生成器。
重要提示:
从 TensorFlow 2.1 开始,.fit_generator()
已被弃用,您应该使用 .fit()
示例取自 Keras 官方文档:
datagen = ImageDataGenerator(
featurewise_center=True,
featurewise_std_normalization=True,
rotation_range=20,
width_shift_range=0.2,
height_shift_range=0.2,
horizontal_flip=True)
# compute quantities required for featurewise normalization
# (std, mean, and principal components if ZCA whitening is applied)
datagen.fit(x_train)
# TF <= 2.0
# fits the model on batches with real-time data augmentation:
model.fit_generator(datagen.flow(x_train, y_train, batch_size=32),
steps_per_epoch=len(x_train) // 32, epochs=epochs)
#TF >= 2.1
model.fit(datagen.flow(x_train, y_train, batch_size=32),
steps_per_epoch=len(x_train) // 32, epochs=epochs)
我建议阅读这篇关于 ImageDataGenenerator 和增强的优秀文章:https://machinelearningmastery.com/how-to-configure-image-data-augmentation-when-training-deep-learning-neural-networks/
您的问题的解决方案在于这行代码(简单流程或 flow_from_directory):
# prepare iterator
it = datagen.flow(samples, batch_size=1)
要创建您自己的 DataGenerator,应该看看这个 link(作为起点):https://stanford.edu/~shervine/blog/keras-how-to-generate-data-on-the-fly
重要说明 (2):
如果您使用来自 Tensorflow 的 Keras(Keras inside Tensorflow),那么对于提供的代码和您参考的教程,请确保替换 import/neural 网络创建片段:
from keras.x.y.z import A
与
from tensorflow.keras.x.y.z import A