权重和输入的点积
dot product of weight and input
我在看初级ML的书,貌似大家都写了
output = np.dot(inputs, np.array(weights).T) + biases
我觉得很尴尬,因为等式是 y = wx + b
,而不是 y = xw + b
。一个变量写在它的系数之后。
output = np.dot(weights, np.array(inputs).T) + np.array([biases]).T
为什么不是这个?这是有原因的吗?或者只是一个惯例?
这是作者采纳的惯例。
甚至变量(它们的维度)的初始化方式也是导致这种情况的另一种约定。
这两种方式都是可以接受的,并且只要您正确实施它们都是正确的,即满足等式的目标。
我在看初级ML的书,貌似大家都写了
output = np.dot(inputs, np.array(weights).T) + biases
我觉得很尴尬,因为等式是 y = wx + b
,而不是 y = xw + b
。一个变量写在它的系数之后。
output = np.dot(weights, np.array(inputs).T) + np.array([biases]).T
为什么不是这个?这是有原因的吗?或者只是一个惯例?
这是作者采纳的惯例。 甚至变量(它们的维度)的初始化方式也是导致这种情况的另一种约定。
这两种方式都是可以接受的,并且只要您正确实施它们都是正确的,即满足等式的目标。