反向传播神经元网络方法 - 设计

BackPropagation Neuron Network Approach - Design

我正在尝试制作一个数字识别程序。我将输入一个数字的 white/black 图像,我的输出层将触发相应的数字(输出层的 0 -> 9 个神经元中的一个神经元将触发)。我完成了二维反向传播神经元网络的实现。我的拓扑大小是 [5][3] -> [3][3] -> 1[10]。所以它是一个二维输入层、一个二维隐藏层和一个一维输出层。但是我得到了奇怪和错误的结果(平均误差和输出值)。

这个阶段调试有点费时间。因此,我很想知道这是否是正确的设计,所以我会继续调试。以下是我实现的流程步骤:

这是我对数字七的尝试。输出是神经元 # 0 和神经元 # 6。神经元 6 应该携带 1,神经元 # 0 应该携带 0。在我的结果中,除了 6 之外的所有神经元都携带相同的值(# 0 是一个样本)。

抱歉这么久了 post。如果你知道这一点,那么你可能知道它有多酷,它有多大,可以放在一个 post 中。提前谢谢你

具有对数损失的 Softmax 通常用于多类输出层激活函数。你有 multiclass/multinomial: 10 个可能的数字组成 10 类。

所以您可以尝试将输出层激活函数更改为 softmax

http://en.wikipedia.org/wiki/Softmax_function

Artificial neural networks

In neural network simulations, the softmax function is often implemented at the final layer of a network used for classification. Such networks are then trained under a log loss (or cross-entropy) regime, giving a non-linear variant of multinomial logistic regression.

让我们知道这有什么影响。 –