经过几个 epoch 后,Valid loss 和 Loss 之间的差异增加

After a few epochs, the difference between Valid loss and Loss increases

我正在尝试在 MagnaTagAtune 数据集上训练模型。模型是否经过适当训练?这是什么问题,有谁知道吗?等待会解决问题吗?

结果如图所示。 enter image description here


谢谢 pseudo_random_here 的回答。您的提示很有帮助,但问题仍然存在。

不幸的是,改变学习率没有用。现在,根据您的建议,我将使用学习率为 0.1 的 SGD 优化器。我什至使用了另一个模型,但问题没有解决。

from keras.optimizers import SGD
opt = SGD(lr=0.1)
model.compile(loss = "categorical_crossentropy", optimizer = opt)

简答:我会说你的 val_loss 太高了,等待不太可能解决你的问题

说明:我认为这里有两种可能:

  • 您的架构不适合数据
  • 你的学习率太小

PS。如果您提供有关您正在使用的神经网络架构、我们正在研究的损失函数以及您预测的确切内容的信息,将会有很大帮助?