任何keras层中的dropout层和dropout参数有什么区别

What is the difference between dropout layer and dropout parameter in any keras layer

keras中的Dropout层和dropoutrecurrent_droput参数有什么区别?它们都用于相同的目的吗?

示例:

model.add(Dropout(0.2))  # layer
model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2))  # parameters

是的,它们具有相同的功能,在该层的线性变换(权重相乘和偏差相加)之前使用 dropout 作为参数。 Dropout 作为层也可以在激活层之前使用。

recurrent_dropout也有相同的功能但方向不同(通常dropout在输入和输出之间,在时间戳之间)