LASSO 和稀疏解

LASSO and sparse solutions

在一篇文章中我发现了以下内容:

“LASSO 回归方法提供了稀疏解,因此可以提高模型的可解释性”。

有人可以帮我理解这是什么意思吗?据我所知,方程组解的稀疏分解是具有最小伪 l 范数的维度 l 向量,使得系统仍然满足。将一些回归系数设置为零的稀疏解对解释有何帮助?

Lasso Regression的惩罚方式与Ridge不同,Ridge是使用L1正则化。还有一个“alpha”参数,您可以在 scikit-learn 上设置它。对于“alpha”的高值,许多系数正好为零。

此方法也使用系数的绝对和 ( |w| )。例如,如果你的数据集上有高相关特征,Lasso 正在对最大系数做一个相关预测,而其余的设置为 0

如果有两个或多个高度共线的变量,那么 LASSO 回归 select 其中一个是随机的(这不利于数据的解释)

您可以在此处找到更多详细信息 => https://www.geeksforgeeks.org/lasso-vs-ridge-vs-elastic-net-ml/

稀疏 matrix/array 或当您的矩阵主要包含零和少数非零项时定义的任何内容。另一方面,密集的 matrix/array 是指零很少。

应用 LASSO 回归时,学习系数的稀疏性取决于惩罚量 (lambda)。惩罚越高,得到的系数越稀疏。即,非零系数(选定变量)。例如,如果您的回归中有 100 个自变量,LASSO 可能 return 只有 10 个非零变量。这意味着 10 个非零变量和 90 个零变量。这就是稀疏性的含义。

选择的变量很少(非零)意味着可解释模型,因为您可以用很少的变量(在上面的示例中是 10 个变量)而不是使用 100 个变量来解释它。