Python/Keras:使用 tensorflow 的 LeakyRelu
Python/Keras: LeakyRelu using tensorflow
我在安装 keras 时遇到问题。以下内容给我带来了太多麻烦(即使在终端上进行更新):
from keras.layers import Dense, Activation
from keras.models import Sequential
所以我没有使用 ann = Sequential()
初始化 ANN,而是 ann = tf.keras.models.Sequential()
。这通过导入:
import tensorflow as tf
from tensorflow import keras
我想使用 LeakyReLU 作为激活函数。但是,这个实现起来似乎有所不同,与其他人倾向于做的相比,keras 文档对我的帮助不大。
我看到 ann.add(LeakyReLU(alpha=0.05)) 是必需的。但是,其他参数如 unit 或 input_dim 呢?我如何使用我的代码实现它?
# Initialising the ANN
ann = tf.keras.models.Sequential()
# Adding the input layer and the first hidden layer
ann.add(tf.keras.layers.Dense(units=32, activation='relu'))
# Adding the second hidden layer
ann.add(tf.keras.layers.Dense(units=32, activation='relu'))
# Adding the output layer
ann.add(tf.keras.layers.Dense(units=1))
要在层中使用 LeakyReLU,您可以这样做:
ann.add(tf.keras.layers.Dense(
units=32, activation=tf.keras.layers.LeakyReLU(alpha=0.3)))
首先,您可以直接使用from tensorflow.keras.models import Sequential
和from tensorflow.keras.layers import Dense, Activation
导入Sequential
、Dense
和Activation
您可以这样实施 LeakyReLU
:
from tensorflow import keras
model = keras.models.Sequential([
keras.layers.Dense(10),
keras.layers.LeakyReLU(alpha=0.05)
])
您可以在声明 keras documentation 中给出的层后指定 LeakuReLU
激活函数。
我在安装 keras 时遇到问题。以下内容给我带来了太多麻烦(即使在终端上进行更新):
from keras.layers import Dense, Activation
from keras.models import Sequential
所以我没有使用 ann = Sequential()
初始化 ANN,而是 ann = tf.keras.models.Sequential()
。这通过导入:
import tensorflow as tf
from tensorflow import keras
我想使用 LeakyReLU 作为激活函数。但是,这个实现起来似乎有所不同,与其他人倾向于做的相比,keras 文档对我的帮助不大。
我看到 ann.add(LeakyReLU(alpha=0.05)) 是必需的。但是,其他参数如 unit 或 input_dim 呢?我如何使用我的代码实现它?
# Initialising the ANN
ann = tf.keras.models.Sequential()
# Adding the input layer and the first hidden layer
ann.add(tf.keras.layers.Dense(units=32, activation='relu'))
# Adding the second hidden layer
ann.add(tf.keras.layers.Dense(units=32, activation='relu'))
# Adding the output layer
ann.add(tf.keras.layers.Dense(units=1))
要在层中使用 LeakyReLU,您可以这样做:
ann.add(tf.keras.layers.Dense(
units=32, activation=tf.keras.layers.LeakyReLU(alpha=0.3)))
首先,您可以直接使用from tensorflow.keras.models import Sequential
和from tensorflow.keras.layers import Dense, Activation
Sequential
、Dense
和Activation
您可以这样实施 LeakyReLU
:
from tensorflow import keras
model = keras.models.Sequential([
keras.layers.Dense(10),
keras.layers.LeakyReLU(alpha=0.05)
])
您可以在声明 keras documentation 中给出的层后指定 LeakuReLU
激活函数。