经过几个 epoch 后,Valid loss 和 Loss 之间的差异增加
After a few epochs, the difference between Valid loss and Loss increases
我正在尝试在 MagnaTagAtune 数据集上训练模型。模型是否经过适当训练?这是什么问题,有谁知道吗?等待会解决问题吗?
结果如图所示。
enter image description here
谢谢 pseudo_random_here 的回答。您的提示很有帮助,但问题仍然存在。
不幸的是,改变学习率没有用。现在,根据您的建议,我将使用学习率为 0.1 的 SGD 优化器。我什至使用了另一个模型,但问题没有解决。
from keras.optimizers import SGD
opt = SGD(lr=0.1)
model.compile(loss = "categorical_crossentropy", optimizer = opt)
简答:我会说你的 val_loss 太高了,等待不太可能解决你的问题
说明:我认为这里有两种可能:
- 您的架构不适合数据
- 你的学习率太小
PS。如果您提供有关您正在使用的神经网络架构、我们正在研究的损失函数以及您预测的确切内容的信息,将会有很大帮助?
我正在尝试在 MagnaTagAtune 数据集上训练模型。模型是否经过适当训练?这是什么问题,有谁知道吗?等待会解决问题吗?
结果如图所示。 enter image description here
谢谢 pseudo_random_here 的回答。您的提示很有帮助,但问题仍然存在。
不幸的是,改变学习率没有用。现在,根据您的建议,我将使用学习率为 0.1 的 SGD 优化器。我什至使用了另一个模型,但问题没有解决。
from keras.optimizers import SGD
opt = SGD(lr=0.1)
model.compile(loss = "categorical_crossentropy", optimizer = opt)
简答:我会说你的 val_loss 太高了,等待不太可能解决你的问题
说明:我认为这里有两种可能:
- 您的架构不适合数据
- 你的学习率太小
PS。如果您提供有关您正在使用的神经网络架构、我们正在研究的损失函数以及您预测的确切内容的信息,将会有很大帮助?