R Keras:在输入层和隐藏层上应用丢失正则化
R Keras: apply dropout regularization both on the input and the hidden layer
我正在学习 R 中的 Keras,我想在输入层(20000 个变量)和中间层(100 个神经元)上应用 dropout 正则化。我正在部署 Keras 进行回归。从官方 documentation 我已经达到以下模型构建:
model <- keras_model_sequential() %>%
layer_dense(units = 100, activation = "relu", input_shape = 20000) %>%
layer_dropout(0.6) %>%
layer_dense(units = 1)
我应该如何调整代码以实现我打算制作的内容?
我找到了解决方案,所以我发布了一个答案,以防其他人遇到同样的问题。
model <- keras_model_sequential() %>%
layer_dropout(0.8, input_shape = 20000) %>%
layer_dense(units = 100, activation = "relu") %>%
layer_dropout(0.6) %>%
layer_dense(units = 1)
我正在学习 R 中的 Keras,我想在输入层(20000 个变量)和中间层(100 个神经元)上应用 dropout 正则化。我正在部署 Keras 进行回归。从官方 documentation 我已经达到以下模型构建:
model <- keras_model_sequential() %>%
layer_dense(units = 100, activation = "relu", input_shape = 20000) %>%
layer_dropout(0.6) %>%
layer_dense(units = 1)
我应该如何调整代码以实现我打算制作的内容?
我找到了解决方案,所以我发布了一个答案,以防其他人遇到同样的问题。
model <- keras_model_sequential() %>%
layer_dropout(0.8, input_shape = 20000) %>%
layer_dense(units = 100, activation = "relu") %>%
layer_dropout(0.6) %>%
layer_dense(units = 1)