tf.keras.layers.Dense() 中 'linear' 激活的混淆

Confusion on the 'linear' activation in tf.keras.layers.Dense()

explanation on activation under Arguments 中显示

"linear" activation: a(x) = x.

令人困惑。线性激活不应该像 wx+b 那样(如果 use_bias=True)吗?

不,Dense 层本身计算 y = a(wx + b)activation 参数所做的是更改此计算中的函数 a 以获得不同的 non-linear 行为,但是如果你需要线性行为,"cancel out" a 的唯一方法是使用线性函数 a(x) = x,所以没有对 pre-activation 的修改] 值(wx + b)。