在神经网络中的哪里添加辍学?
Where to add dropout in neural network?
我在神经网络的不同部分看到了关于 dropout 的描述:
权重矩阵中的dropout,
隐藏层在矩阵乘法后relu前dropout,
relu后隐藏层dropout,
并在 softmax 函数之前的输出分数中丢失
我对应该在哪里执行 dropout 感到有点困惑。有人可以帮忙详细说明一下吗?谢谢!
所以:
- 您描述的第一个用法称为权重上的丢失。
- 您描述的第二个和第三个用法是相同的,它们通常被描述为激活时丢失。人们可能很容易注意到,当关闭整行(或列 - 取决于实现)时,它可能以 权重丢失 的形式表示。
- 在第 4 种情况下,它不是 dropout 的正确用法 - 你想在其上使用 dropout 的层是一个输出层 - 所以在那里使用 dropout 不是最好的主意。
我在神经网络的不同部分看到了关于 dropout 的描述:
权重矩阵中的dropout,
隐藏层在矩阵乘法后relu前dropout,
relu后隐藏层dropout,
并在 softmax 函数之前的输出分数中丢失
我对应该在哪里执行 dropout 感到有点困惑。有人可以帮忙详细说明一下吗?谢谢!
所以:
- 您描述的第一个用法称为权重上的丢失。
- 您描述的第二个和第三个用法是相同的,它们通常被描述为激活时丢失。人们可能很容易注意到,当关闭整行(或列 - 取决于实现)时,它可能以 权重丢失 的形式表示。
- 在第 4 种情况下,它不是 dropout 的正确用法 - 你想在其上使用 dropout 的层是一个输出层 - 所以在那里使用 dropout 不是最好的主意。