权重和输入的点积

dot product of weight and input

我在看初级ML的书,貌似大家都写了

output = np.dot(inputs, np.array(weights).T) + biases

我觉得很尴尬,因为等式是 y = wx + b,而不是 y = xw + b。一个变量写在它的系数之后。

output = np.dot(weights, np.array(inputs).T) + np.array([biases]).T

为什么不是这个?这是有原因的吗?或者只是一个惯例?

这是作者采纳的惯例。 甚至变量(它们的维度)的初始化方式也是导致这种情况的另一种约定。

这两种方式都是可以接受的,并且只要您正确实施它们都是正确的,即满足等式的目标。