解释反向传播算法主教代码
explain backpropagation algorithm bishop codes
我最近在 Coursera 上完成了吴教授的机器学习课程,但我对反向传播算法的理解有些问题。所以我尝试使用 sigmoid 函数阅读用于反向传播的 Bishop 代码。我搜索并找到了清晰的代码,这些代码试图解释反向传播的作用,但在理解代码方面仍然存在问题
任何人都可以向我解释反向传播的真正作用吗?并为我解释代码?
here 是我在 github 中找到的代码,我在
之前提到过它
你的网络有问题。反向传播的第一步是为网络中的每个神经元计算一部分负罪感。您的目标是将错误描述为权重的依赖性(您可以更改的参数)。所以backprop方程是偏导数error/weights.
第一步:误差信号=(期望结果-输出神经元的输出)x derivationactivation(x)
其中 x 是输出神经元的输入。那是输出神经元的罪恶感。
下一步是计算隐藏单位的犯罪率。该步骤的第一部分是将隐藏单元与下一层单元连接的下一层 x 权重的误差信号求和。而rest是激活函数的偏导。误差信号 = 总和(下一层误差 x 权重)x 推导激活(x)。
最后一步是调整权重。
wij = errorsignal_i x learning_rate x output_of_neuron_j
我在Matlab中实现BP
NN
我最近在 Coursera 上完成了吴教授的机器学习课程,但我对反向传播算法的理解有些问题。所以我尝试使用 sigmoid 函数阅读用于反向传播的 Bishop 代码。我搜索并找到了清晰的代码,这些代码试图解释反向传播的作用,但在理解代码方面仍然存在问题
任何人都可以向我解释反向传播的真正作用吗?并为我解释代码?
here 是我在 github 中找到的代码,我在
之前提到过它你的网络有问题。反向传播的第一步是为网络中的每个神经元计算一部分负罪感。您的目标是将错误描述为权重的依赖性(您可以更改的参数)。所以backprop方程是偏导数error/weights.
第一步:误差信号=(期望结果-输出神经元的输出)x derivationactivation(x) 其中 x 是输出神经元的输入。那是输出神经元的罪恶感。
下一步是计算隐藏单位的犯罪率。该步骤的第一部分是将隐藏单元与下一层单元连接的下一层 x 权重的误差信号求和。而rest是激活函数的偏导。误差信号 = 总和(下一层误差 x 权重)x 推导激活(x)。
最后一步是调整权重。
wij = errorsignal_i x learning_rate x output_of_neuron_j
我在Matlab中实现BP NN