R Keras:在输入层和隐藏层上应用丢失正则化

R Keras: apply dropout regularization both on the input and the hidden layer

我正在学习 R 中的 Keras,我想在输入层(20000 个变量)和中间层(100 个神经元)上应用 dropout 正则化。我正在部署 Keras 进行回归。从官方 documentation 我已经达到以下模型构建:

model <- keras_model_sequential() %>%
         layer_dense(units = 100, activation = "relu", input_shape = 20000) %>%
         layer_dropout(0.6) %>%
         layer_dense(units = 1)

我应该如何调整代码以实现我打算制作的内容?

我找到了解决方案,所以我发布了一个答案,以防其他人遇到同样的问题。

model <- keras_model_sequential() %>%
         layer_dropout(0.8, input_shape = 20000) %>%
         layer_dense(units = 100, activation = "relu") %>%
         layer_dropout(0.6) %>%
         layer_dense(units = 1)