将自己的激活函数应用于张量流中的层
Apply own activation function to layer in tensorflow
我正在使用一个模型,其中 tensorflow relu 函数用于激活隐藏层。所以基本上模型是这样做的
h = tf.nn.relu(zw)
其中 zw 是前一层输出的所有元素乘以权重。根据tensorflow的relu定义会return
max(zw,0)
所以对于张量的每个元素,0 和 zw 的每个元素的值之间的最大数。
我如何应用我自己的 relu 函数,我 return 元素 zw 如果它大于 0 并且 zw 元素乘以 0.1 如果它小于 0?
你可以这样做:
h = tf.where(zw < 0, 0.1 * zw, zw)
我正在使用一个模型,其中 tensorflow relu 函数用于激活隐藏层。所以基本上模型是这样做的
h = tf.nn.relu(zw)
其中 zw 是前一层输出的所有元素乘以权重。根据tensorflow的relu定义会return
max(zw,0)
所以对于张量的每个元素,0 和 zw 的每个元素的值之间的最大数。
我如何应用我自己的 relu 函数,我 return 元素 zw 如果它大于 0 并且 zw 元素乘以 0.1 如果它小于 0?
你可以这样做:
h = tf.where(zw < 0, 0.1 * zw, zw)