为什么有些神经网络结构无法拟合问题?
Why are some neural network structures unable to fit a problem?
我正在玩我为 xor
-ing 编写的神经网络代码。我写了这个模型:
import tensorflow as tf
from tensorflow import keras
import matplotlib.pyplot as plt
model = keras.Sequential()
model.add(tf.keras.Input(shape=(2,)))
#model.add(keras.layers.Dense(2))
model.add(keras.layers.Dense(4, activation='relu'))
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
optimizer = keras.optimizers.Adam(lr=0.2) #for example
model.compile(optimizer=optimizer,
loss=tf.losses.BinaryCrossentropy(),
metrics=['accuracy'])
# X_train, Y_train = ([[0, 0], [0, 1], [1, 0], [1, 1]], [[0], [1], [1], [0]])
X_train = tf.cast([[0, 0], [0, 1], [1, 0], [1, 1]], tf.float32)
Y_train = tf.cast([0, 1, 1, 0], tf.float32)
# train model and plot loss
hist = model.fit(X_train, Y_train, epochs=10000)
plt.plot(hist.history['loss'])
plt.show()
print(model.predict([[0, 1]]))
print(model.predict([[1, 1]]))
print(model.predict([[1, 0]]))
print(model.predict([[0, 0]]))
一半的时间我会在这个模型中获得 100% 的准确率,而一半的时间我只会获得 75%(有时甚至 50%)。即使在 10000 个 epoch 之后,模型也找不到合适的方法!
我注意到,只需按照下面的代码所示切换图层即可获得 100% 的准确度 always。
model.add(tf.keras.Input(shape=(2,)))
#model.add(keras.layers.Dense(2))
#model.add(keras.layers.Dense(4, activation='relu'))
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
问题
为什么会这样?为什么这个简单的模型即使在 10K 轮之后也不能很好地拟合,而新模型需要少于 500 轮?是什么让旧模型具体收敛到该百分比?
对于异或问题架构2隐藏1个输出神经元能够解决它。我想提的第一件事是我们对问题的看法。我知道这对我们人类来说似乎微不足道,但这并不意味着对于这些简单的网络来说这也是微不足道的。
异或是线性non-separable问题的典型例子。根据我的经验,当我尝试使用 [2, 1] 架构解决它时,我成功了,但也需要很多时间。
其次,这些架构有时无法在给定的时代解决。几乎可以保证,如果你训练的时间更长,你就会得出结论(有时太长了)。
第三件事是。我提到 [2, 1] 可以解决它。让我们关注 2。2 个隐藏神经元意味着您有两个 non-linear 输入组合。所以你将 2-Dimensional 映射到 2-Dimensional space,非线性让你有机会在这个新的 space 中输入可分离。事情是这样的,也许神经网络很难在这个映射上进行这种分离。当您使用 16 个隐藏层时,您会创建 16 个非线性组合,并且从您的结果中我们可以看到更容易找到良好的分离。
每当您观察到 运行 相同的网络配置多次导致非常不同的行为时,这意味着初始权重配置(这是运行之间的唯一区别)导致了这种情况。但是,这并不意味着初始化方案有问题。它可能只是意味着梯度下降在您提供的初始化附近的参数 space 中卡住非常快。
发生这种情况的主要原因之一是学习率太大:网络提前跳到局部最小值,但卡在这个山谷的边缘而不是它的最小值。如果您将学习率更改为 lr=0.01
,您将看到网络每次都有 100% 的准确率。
我的猜测是,您提供的另一个网络具有更高的学习率,因为它的参数更少,因此需要操作的参数更简单 space。
我正在玩我为 xor
-ing 编写的神经网络代码。我写了这个模型:
import tensorflow as tf
from tensorflow import keras
import matplotlib.pyplot as plt
model = keras.Sequential()
model.add(tf.keras.Input(shape=(2,)))
#model.add(keras.layers.Dense(2))
model.add(keras.layers.Dense(4, activation='relu'))
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
optimizer = keras.optimizers.Adam(lr=0.2) #for example
model.compile(optimizer=optimizer,
loss=tf.losses.BinaryCrossentropy(),
metrics=['accuracy'])
# X_train, Y_train = ([[0, 0], [0, 1], [1, 0], [1, 1]], [[0], [1], [1], [0]])
X_train = tf.cast([[0, 0], [0, 1], [1, 0], [1, 1]], tf.float32)
Y_train = tf.cast([0, 1, 1, 0], tf.float32)
# train model and plot loss
hist = model.fit(X_train, Y_train, epochs=10000)
plt.plot(hist.history['loss'])
plt.show()
print(model.predict([[0, 1]]))
print(model.predict([[1, 1]]))
print(model.predict([[1, 0]]))
print(model.predict([[0, 0]]))
一半的时间我会在这个模型中获得 100% 的准确率,而一半的时间我只会获得 75%(有时甚至 50%)。即使在 10000 个 epoch 之后,模型也找不到合适的方法!
我注意到,只需按照下面的代码所示切换图层即可获得 100% 的准确度 always。
model.add(tf.keras.Input(shape=(2,)))
#model.add(keras.layers.Dense(2))
#model.add(keras.layers.Dense(4, activation='relu'))
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
问题
为什么会这样?为什么这个简单的模型即使在 10K 轮之后也不能很好地拟合,而新模型需要少于 500 轮?是什么让旧模型具体收敛到该百分比?
对于异或问题架构2隐藏1个输出神经元能够解决它。我想提的第一件事是我们对问题的看法。我知道这对我们人类来说似乎微不足道,但这并不意味着对于这些简单的网络来说这也是微不足道的。
异或是线性non-separable问题的典型例子。根据我的经验,当我尝试使用 [2, 1] 架构解决它时,我成功了,但也需要很多时间。
其次,这些架构有时无法在给定的时代解决。几乎可以保证,如果你训练的时间更长,你就会得出结论(有时太长了)。
第三件事是。我提到 [2, 1] 可以解决它。让我们关注 2。2 个隐藏神经元意味着您有两个 non-linear 输入组合。所以你将 2-Dimensional 映射到 2-Dimensional space,非线性让你有机会在这个新的 space 中输入可分离。事情是这样的,也许神经网络很难在这个映射上进行这种分离。当您使用 16 个隐藏层时,您会创建 16 个非线性组合,并且从您的结果中我们可以看到更容易找到良好的分离。
每当您观察到 运行 相同的网络配置多次导致非常不同的行为时,这意味着初始权重配置(这是运行之间的唯一区别)导致了这种情况。但是,这并不意味着初始化方案有问题。它可能只是意味着梯度下降在您提供的初始化附近的参数 space 中卡住非常快。
发生这种情况的主要原因之一是学习率太大:网络提前跳到局部最小值,但卡在这个山谷的边缘而不是它的最小值。如果您将学习率更改为 lr=0.01
,您将看到网络每次都有 100% 的准确率。
我的猜测是,您提供的另一个网络具有更高的学习率,因为它的参数更少,因此需要操作的参数更简单 space。