不使用dropout的验证损失小于训练损失(vald精度高于训练精度)
Validation loss less than training loss (vald accuracy higher than training accuracy) without using dropout
我一直在研究多任务模型,使用 VGG16 没有 dropout 层。我发现验证精度高于训练精度,验证损失小于训练损失。
我似乎无法找出模型中发生这种情况的原因。
下面是训练图:
数据:
我正在使用(随机打乱图像)70% 训练,15% 验证,15% 测试,15% 测试数据的结果如下:
您认为这些结果好得令人难以置信吗?
一开始是的,但在最后你可以看到他们开始改变位置。
在训练结束时,您接近过拟合点(如果 val 损失开始增加或 val accurace 开始下降,那么您已经达到过拟合)
但一开始,可以解释这种行为的可能是训练和测试之间的一些数据不平衡。也许您在验证数据库中有更简单的示例,或者 class 不平衡,或者更多的空值等。
我一直在研究多任务模型,使用 VGG16 没有 dropout 层。我发现验证精度高于训练精度,验证损失小于训练损失。
我似乎无法找出模型中发生这种情况的原因。
下面是训练图:
数据:
我正在使用(随机打乱图像)70% 训练,15% 验证,15% 测试,15% 测试数据的结果如下:
您认为这些结果好得令人难以置信吗?
一开始是的,但在最后你可以看到他们开始改变位置。
在训练结束时,您接近过拟合点(如果 val 损失开始增加或 val accurace 开始下降,那么您已经达到过拟合)
但一开始,可以解释这种行为的可能是训练和测试之间的一些数据不平衡。也许您在验证数据库中有更简单的示例,或者 class 不平衡,或者更多的空值等。