神经网络错误趋势
Neural Network Error Trend
我对神经网络比较陌生,所以当我在我的数据中发现这种趋势时,我非常感兴趣。我有一个多层感知器网络,它使用没有动量的反向传播。学习率为 0.02,训练中允许的最小误差范围为 0.01。网络必须学习如何正确地对两个布尔值(它们的值为 1 或 0)应用异或运算。有偏见的神经元来反驳异或问题不具有线性可分性的事实(不确定我的措辞是否正确)。网络的神经元使用 Sigmoid 传递函数。我想知道为什么图表会以这种趋势增长。再次随机化网络的权重并再次训练后,图形总是这样显示。这是为什么?
对我来说这看起来是正确的,也许您只是误读了图表。在 x 轴上有迭代。您可以将此视为简化的时间轴。你的 y 轴是网络的误差(越低越好)。因此,随着训练时间的推移,您的网络会产生更好的结果(误差更低)。
我对神经网络比较陌生,所以当我在我的数据中发现这种趋势时,我非常感兴趣。我有一个多层感知器网络,它使用没有动量的反向传播。学习率为 0.02,训练中允许的最小误差范围为 0.01。网络必须学习如何正确地对两个布尔值(它们的值为 1 或 0)应用异或运算。有偏见的神经元来反驳异或问题不具有线性可分性的事实(不确定我的措辞是否正确)。网络的神经元使用 Sigmoid 传递函数。我想知道为什么图表会以这种趋势增长。再次随机化网络的权重并再次训练后,图形总是这样显示。这是为什么?
对我来说这看起来是正确的,也许您只是误读了图表。在 x 轴上有迭代。您可以将此视为简化的时间轴。你的 y 轴是网络的误差(越低越好)。因此,随着训练时间的推移,您的网络会产生更好的结果(误差更低)。