sklearn.preprocessing.normalize 考虑哪个 L1 范数?

Which L1 norm does sklearn.preprocessing.normalize consider?

在此参考文献 http://mathworld.wolfram.com/L1-Norm.html 中,L1 范数计算为向量中值的总和。

现在,在这个网站上http://www.chioka.in/differences-between-the-l1-norm-and-the-l2-norm-least-absolute-deviations-and-least-squares/ L1 范数是通过将向量的每个值与向量均值之间的差异求和来计算的。

我的问题是:为什么对同一个规范有如此不同的解释?哪个是正确的?最重要的是,在使用 sklearn.preprocessing.normalize 时使用了哪个以及如何使用?

这是两种不同的场景。第一个是指向量的范数,它是向量长度的度量。

L1 的第二个用途是指损失函数,用于衡量模型的性能。这里 L1 不是通过求和向量的每个值与向量均值之间的差异来计算的。相反,它是通过首先计算每个真实值的绝对值及其相应的预测值并将它们加在一起来计算的。在这种情况下,向量本身就是真实值和预测值之间的差异向量。