当我们使用激活函数时,我们如何知道一个神经元被激活

How do we know a neuron is activated when we use activation function

我需要澄清我们所说的激活函数究竟是什么时候被激活的。激活函数的工作是引入非线性,对吧。它只是将给定输入缩放到受限范围吗?

在人工神经网络中,节点的激活函数定义了给定一个或一组输入时该节点的输出。标准的计算机芯片电路可以看作是激活函数的数字网络,可以是“ON”(1)或“OFF”(0),具体取决于输入。

这取决于你说的是什么激活函数。但通常它们用于使输出结果在回归中更清晰或缩放输入以便在分类中更容易在它们之间进行选择。

参考文献:

I need clarification on when exactly do we say an activation function is activated.

我们没有。这不是一个布尔值,要 "active" 或 "inactive"。您可能会考虑神经元是否放电(通过其轴突发送电信号)。

感知器(软件神经网络的 "neurons")不一定以这种方式工作。一些激活函数 do 具有硬二进制信号(-1 对 1,或 0 对 1),但大多数是连续函数。

相反,将其视为 "attention function","how excited should this neuron get in response to the input?" 的评估例如,ReLU (y = max(x, 0)) 翻译为 "If this is boring, I don't care how boring it is; call it a 0 and move on." Sigmoid 并且tanh 更具辨别力:

  • 低于-2 .........算了
  • -2 到 2 ... 是的,让我们注意正反两面
  • above 2 ..........我明白了——这太棒了……别在意你其他的推销,你已经得到了 A+。

激活函数是一种归一化或缩放过滤器。它们帮助下一层有效地专注于区分未决定的案例;一个好的激活函数通常在其输入的中间范围 ("the model isn't sure") 有一个有用的梯度(比如,大约 1.0)。他们阻止了一个极度兴奋的输入(比如 +1000)控制下一层的 "conversation".