tf.nn.leaky_relu 和 tf.keras.layers.LeakyReLU 的区别?

Difference between tf.nn.leaky_relu and tf.keras.layers.LeakyReLU?

我了解到 tf.nn.leaky_relu 用于计算函数,而 tf.keras.layers.LeakyReLU 是图层版本。但是,在添加到函数式 API 神经网络模型时,它们会有何不同?

如果你去 deep enough,你可能会发现 tf.keras.layers.LeakyReLU 实际上在幕后调用 tf.nn.leaky_relu

因此,我认为使用后者或前者应该没有任何区别。

不过,根据我的经验,如果您正在使用 Keras API,我建议尽可能坚持使用 Keras Layers,以避免以后出现任何序列化问题。