神经网络的偏置神经元是否等同于线性回归的 y 轴截距?

Is the bias neuron of a neural network equivalent to a y-intercept of a linear regression?

以上说法是否属实?偏差和 \beta_0 都是独立于输入的权重,因此允许模型添加一些常数值。

首先,线性回归试图估计一个函数,而单个神经元将输入 space 分成两个子 space,所以它们本质上是这样做的 不同的任务。

话虽如此,神经元中的 \beta_0 和线性回归中的 y 轴截距都是偏差:无论输出如何都应用于最终输出的常数(只是为了澄清:它们取决于模型从输入数据中学习它们的意义上的输入)。