Python/Keras:使用 tensorflow 的 LeakyRelu

Python/Keras: LeakyRelu using tensorflow

我在安装 keras 时遇到问题。以下内容给我带来了太多麻烦(即使在终端上进行更新):

from keras.layers import Dense, Activation
from keras.models import Sequential

所以我没有使用 ann = Sequential() 初始化 ANN,而是 ann = tf.keras.models.Sequential()。这通过导入:

import tensorflow as tf
from tensorflow import keras

我想使用 LeakyReLU 作为激活函数。但是,这个实现起来似乎有所不同,与其他人倾向于做的相比,keras 文档对我的帮助不大。

我看到 ann.add(LeakyReLU(alpha=0.05)) 是必需的。但是,其他参数如 unit 或 input_dim 呢?我如何使用我的代码实现它?

# Initialising the ANN
ann = tf.keras.models.Sequential()

# Adding the input layer and the first hidden layer
ann.add(tf.keras.layers.Dense(units=32, activation='relu'))

# Adding the second hidden layer
ann.add(tf.keras.layers.Dense(units=32, activation='relu'))

# Adding the output layer
ann.add(tf.keras.layers.Dense(units=1))

要在层中使用 LeakyReLU,您可以这样做:

ann.add(tf.keras.layers.Dense(
  units=32, activation=tf.keras.layers.LeakyReLU(alpha=0.3)))

首先,您可以直接使用from tensorflow.keras.models import Sequentialfrom tensorflow.keras.layers import Dense, Activation

导入SequentialDenseActivation

您可以这样实施 LeakyReLU

from tensorflow import keras

model = keras.models.Sequential([
    keras.layers.Dense(10),
    keras.layers.LeakyReLU(alpha=0.05)
])

您可以在声明 keras documentation 中给出的层后指定 LeakuReLU 激活函数。