我的 LSTM 模型的验证损失非常不稳定
My validation loss of my LSTM model is very volatile
我正在创建一个 LSTM 模型来预测比特币的收盘价。然而,当我开始训练时,我的验证损失开始变得非常不稳定,我的 test_prediction 变得不准确。
这是我的模型:
model = Sequential()
model.add(LSTM(80, input_shape=(1,look_back)))
model.add(LSTM(60))
model.compile(optimizer='adam', loss='mean_squared_error')
拟合模型:
from keras.callbacks import ModelCheckpoint
callbacks = [ModelCheckpoint(save_best_only = True, filepath='btc_close_prediction.h5')]
history = model.fit(xTrain, yTrain, batch_size=10, epochs=30, callbacks=callbacks, validation_split=0.2)
损失图:
预测图:
请告知如何调整我的模型以获得更好的 val_loss 和更好的预测准确性。
您的验证数据集应包含 5000 个样本,以使您的验证损失平滑。
试试 transformer 模型 - 它需要更少的训练数据。
我正在创建一个 LSTM 模型来预测比特币的收盘价。然而,当我开始训练时,我的验证损失开始变得非常不稳定,我的 test_prediction 变得不准确。
这是我的模型:
model = Sequential()
model.add(LSTM(80, input_shape=(1,look_back)))
model.add(LSTM(60))
model.compile(optimizer='adam', loss='mean_squared_error')
拟合模型:
from keras.callbacks import ModelCheckpoint
callbacks = [ModelCheckpoint(save_best_only = True, filepath='btc_close_prediction.h5')]
history = model.fit(xTrain, yTrain, batch_size=10, epochs=30, callbacks=callbacks, validation_split=0.2)
损失图:
预测图:
请告知如何调整我的模型以获得更好的 val_loss 和更好的预测准确性。
您的验证数据集应包含 5000 个样本,以使您的验证损失平滑。
试试 transformer 模型 - 它需要更少的训练数据。