Keras 在 epoch 结束前评估验证数据
Keras evaluate the validation data before the epoch ends
我想用 Keras 训练我的模型。我正在使用一个巨大的数据集,其中一个训练时期有超过 30000 步。我的问题是我不想在检查验证数据集上的模型改进之前等待一个纪元。有没有办法让 Keras 每 1000 步训练数据评估一次验证数据?我认为一种选择是使用回调,但是 Keras 是否有任何内置解决方案?
if train:
log('Start training')
history = model.fit(train_dataset,
steps_per_epoch=train_steps,
epochs=50,
validation_data=val_dataset,
validation_steps=val_steps,
callbacks=[
keras.callbacks.EarlyStopping(
monitor='loss',
patience=10,
restore_best_weights=True,
),
keras.callbacks.ModelCheckpoint(
filepath=f'model.h5',
monitor='val_loss',
save_best_only=True,
save_weights_only=True,
),
keras.callbacks.ReduceLROnPlateau(
monitor = "val_loss",
factor = 0.5,
patience = 3,
min_lr=0.001,
),
],
)
使用内置回调,您无法做到这一点。您需要的是实现自定义回调。
class MyCustomCallback(tf.keras.callbacks.Callback):
def on_train_batch_begin(self, batch, logs=None):
print('Training: batch {} begins at {}'.format(batch, datetime.datetime.now().time()))
def on_train_batch_end(self, batch, logs=None):
print('Training: batch {} ends at {}'.format(batch, datetime.datetime.now().time()))
def on_test_batch_begin(self, batch, logs=None):
print('Evaluating: batch {} begins at {}'.format(batch, datetime.datetime.now().time()))
def on_test_batch_end(self, batch, logs=None):
print('Evaluating: batch {} ends at {}'.format(batch, datetime.datetime.now().time()))
这摘自 TensorFlow 文档。
您可以覆盖 on_train_batch_end()
函数,并且由于批处理参数是一个整数,您可以根据需要验证 batch % 100 == 0
,然后 self.model.predict(val_data)
等。
请在此处查看我的回答: 以全面了解如何覆盖自定义回调函数。请注意,在您的情况下,重要的是 on_train_batch_end()
而不是 on_epoch_end()
。
我想用 Keras 训练我的模型。我正在使用一个巨大的数据集,其中一个训练时期有超过 30000 步。我的问题是我不想在检查验证数据集上的模型改进之前等待一个纪元。有没有办法让 Keras 每 1000 步训练数据评估一次验证数据?我认为一种选择是使用回调,但是 Keras 是否有任何内置解决方案?
if train:
log('Start training')
history = model.fit(train_dataset,
steps_per_epoch=train_steps,
epochs=50,
validation_data=val_dataset,
validation_steps=val_steps,
callbacks=[
keras.callbacks.EarlyStopping(
monitor='loss',
patience=10,
restore_best_weights=True,
),
keras.callbacks.ModelCheckpoint(
filepath=f'model.h5',
monitor='val_loss',
save_best_only=True,
save_weights_only=True,
),
keras.callbacks.ReduceLROnPlateau(
monitor = "val_loss",
factor = 0.5,
patience = 3,
min_lr=0.001,
),
],
)
使用内置回调,您无法做到这一点。您需要的是实现自定义回调。
class MyCustomCallback(tf.keras.callbacks.Callback):
def on_train_batch_begin(self, batch, logs=None):
print('Training: batch {} begins at {}'.format(batch, datetime.datetime.now().time()))
def on_train_batch_end(self, batch, logs=None):
print('Training: batch {} ends at {}'.format(batch, datetime.datetime.now().time()))
def on_test_batch_begin(self, batch, logs=None):
print('Evaluating: batch {} begins at {}'.format(batch, datetime.datetime.now().time()))
def on_test_batch_end(self, batch, logs=None):
print('Evaluating: batch {} ends at {}'.format(batch, datetime.datetime.now().time()))
这摘自 TensorFlow 文档。
您可以覆盖 on_train_batch_end()
函数,并且由于批处理参数是一个整数,您可以根据需要验证 batch % 100 == 0
,然后 self.model.predict(val_data)
等。
请在此处查看我的回答:on_train_batch_end()
而不是 on_epoch_end()
。