机器学习神经网络:训练误差和测试误差可以相等吗?
Machine Learning Neural Network: Can Training Error and Testing Error be equal?
回归
学习率:0.001
训练与测试的比率 data:50%
我训练了我的神经网络,训练误差和测试误差都从 0.120 开始,然后它都稳步下降并训练它,直到我达到 2,105 个纪元。最终结果是训练误差和训练损失数据均为 0.006。这算是过拟合、欠拟合,还是我犯了一个大错误?。另外我想问一下,如果一个合适的模型具有较低的验证错误(测试错误)但仍然略高于训练损失,那么它们之间的距离有多远?例如,0.012 = 验证损失(测试损失),0.005 为训练损失。一个合适的模型看起来会和那个数字相似吗?
对于来自新来源的真正新测试数据,由于技术来源的变异或人口偏差(也称为批次效应),人们可能会期望测试误差高于训练误差。
对于用于模型验证目的的随机拆分测试数据,根据我的经验,更高的测试误差是过度拟合的标志。但是,实际上没有硬性规定可以说明 b/n 测试和训练有多大差异 "overfit"。
从维基百科查看这张图片:https://en.wikipedia.org/wiki/Overfitting#/media/File:Overfitting_svg.svg
您可以看到,简单地最小化训练误差和测试误差之间的差异并不能得到最佳模型。
具体从您的数字来看,无论训练误差是多少,0.012 的测试误差都非常好。您也许可以做得更好,但是当测试误差已经那么低时,收益将开始变得微不足道。
回归 学习率:0.001 训练与测试的比率 data:50%
我训练了我的神经网络,训练误差和测试误差都从 0.120 开始,然后它都稳步下降并训练它,直到我达到 2,105 个纪元。最终结果是训练误差和训练损失数据均为 0.006。这算是过拟合、欠拟合,还是我犯了一个大错误?。另外我想问一下,如果一个合适的模型具有较低的验证错误(测试错误)但仍然略高于训练损失,那么它们之间的距离有多远?例如,0.012 = 验证损失(测试损失),0.005 为训练损失。一个合适的模型看起来会和那个数字相似吗?
对于来自新来源的真正新测试数据,由于技术来源的变异或人口偏差(也称为批次效应),人们可能会期望测试误差高于训练误差。
对于用于模型验证目的的随机拆分测试数据,根据我的经验,更高的测试误差是过度拟合的标志。但是,实际上没有硬性规定可以说明 b/n 测试和训练有多大差异 "overfit"。
从维基百科查看这张图片:https://en.wikipedia.org/wiki/Overfitting#/media/File:Overfitting_svg.svg
您可以看到,简单地最小化训练误差和测试误差之间的差异并不能得到最佳模型。
具体从您的数字来看,无论训练误差是多少,0.012 的测试误差都非常好。您也许可以做得更好,但是当测试误差已经那么低时,收益将开始变得微不足道。