神经网络:输入层是否由神经元组成?

Neural Networks: Does the input layer consist of neurons?

我目前在研究神经网络理论,我看到到处都写着它由以下几层组成:

我看到一些图形描述将输入层显示为网络中的真实节点,而其他人将该层显示为值的向量 [x1, x2, ... xn]

正确的结构是什么?

"input layer" 是真实的神经元层吗?或者这只是抽象地命名为层,而它实际上只是输入向量?

添加我在网上找到的相互矛盾和令人困惑的照片:

这里看起来输入层由神经元组成:

这里看起来输入层只是一个输入向量:

让我用一些数学符号来回答你的问题,这些符号比随机图像更容易理解。首先,记住感知器。

感知器的任务是找到一个决策函数,将给定集合中的一些点分类为 n 类。所以,对于函数

f : R^n -> R , f(X) = <W, X> + b

其中 W 是权重向量,X 是点向量。例如,如果您有一条由等式 3x + y = 0 定义的线,则 W 为 (3,1),X 为 (x,y).

神经网络可以被认为是一个图,其中图的每个顶点都是一个简单的感知器——也就是说,网络中的每个节点只不过是一个接受一些值并输出一个新值的函数,然后可以用于下一个节点。在你的第二张图片中,这将是两个隐藏层。

那么这些节点需要什么作为输入?一组 W 和 Xs - 权重和点向量。在您的图像中,用 x0, x1, .. xnw0, w1, .. wn 表示。

最终,我们可以得出结论,神经网络需要发挥作用的是一组权重和点的输入向量。

我给你的总体建议是选择一个来源进行学习并坚持下去,而不是通过互联网浏览相互矛盾的图片。

Is the "input layer" a real layer of neurons? Or is this just abstractly named as layer, while it really is just the input vector?

是的,两者都是 - 取决于抽象。在纸面上,网络有输入神经元。在实现层面上,你必须组织这些数据(通常使用 arrays/vectors),这就是你说输入向量的原因:

输入向量保存输入神经元值(代表输入层)。

如果您熟悉图论或图像处理的基础知识 - 原理相同。例如,您可以将图像称为矩阵(技术视图)或像素场(更抽象的视图)。