为什么在 deeplearning.net 为多层感知器示例添加层参数
why are layer parameters added for multilayer perceptron example at deeplearning.net
多层感知器示例位于
[http://www.deeplearning.net/tutorial/mlp.html#mlp][1]
为什么要添加参数(权重和偏差)。请参阅上页中的第五个代码部分。
它们并不是真的“添加”。该层的参数在一个列表中,列表的总和仍然是一个列表。所以运算不是数学求和。
下面是描述这个想法的代码:
param1 = range(2, 6)
param2 = range(12, 15)
print param1
print param2
print "param1 + param2: %s" % ''.join(str(param1 + param2))
将打印
[2, 3, 4, 5]
[12, 13, 14]
param1 + param2: [2, 3, 4, 5, 12, 13, 14]
多层感知器示例位于
[http://www.deeplearning.net/tutorial/mlp.html#mlp][1]
为什么要添加参数(权重和偏差)。请参阅上页中的第五个代码部分。
它们并不是真的“添加”。该层的参数在一个列表中,列表的总和仍然是一个列表。所以运算不是数学求和。
下面是描述这个想法的代码:
param1 = range(2, 6)
param2 = range(12, 15)
print param1
print param2
print "param1 + param2: %s" % ''.join(str(param1 + param2))
将打印
[2, 3, 4, 5]
[12, 13, 14]
param1 + param2: [2, 3, 4, 5, 12, 13, 14]