将自己的激活函数应用于张量流中的层

Apply own activation function to layer in tensorflow

我正在使用一个模型,其中 tensorflow relu 函数用于激活隐藏层。所以基本上模型是这样做的

h = tf.nn.relu(zw)

其中 zw 是前一层输出的所有元素乘以权重。根据tensorflow的relu定义会return

max(zw,0)

所以对于张量的每个元素,0 和 zw 的每个元素的值之间的最大数。

我如何应用我自己的 relu 函数,我 return 元素 zw 如果它大于 0 并且 zw 元素乘以 0.1 如果它小于 0?

你可以这样做:

h = tf.where(zw < 0, 0.1 * zw, zw)