套索回归中的均方误差 (MSE) 和 Python 中的岭回归
Mean Square Error(MSE) in Lasso and Ridge Regressions in Python
我实际上同时为一个数据集编码 Ridge 和 LASSO 回归,最后我试图绘制性能图以及两种方法的误差 (MSE)。
为了性能,我使用了从 sklearn 导入的命令 linear_model.ridge.score()
和 linear_model.lasso.score()
。当我绘制图表时,它似乎可以保持在 0
和 1
之间,但是当我尝试单独计算两者的 MSE 时,它变成了一个很大的数字,即 798,768
(完整列表)等
但是我也需要 0
和 1
之间的错误,这样当我绘制它时,我可以将它与性能进行比较....
所以我的问题是:
有什么方法可以将这种类型的列表转换成0到1之间的数字而不丢失信息吗?
您可以使用它的“规范化版本”——确定系数 R^2 (https://en.m.wikipedia.org/wiki/Coefficient_of_determination),而不是 MSE,它保证在 0 和 1 之间。
有关详细信息,请参阅此答案 https://stats.stackexchange.com/questions/32596/what-is-the-difference-between-coefficient-of-determination-and-mean-squared。
我实际上同时为一个数据集编码 Ridge 和 LASSO 回归,最后我试图绘制性能图以及两种方法的误差 (MSE)。
为了性能,我使用了从 sklearn 导入的命令 linear_model.ridge.score()
和 linear_model.lasso.score()
。当我绘制图表时,它似乎可以保持在 0
和 1
之间,但是当我尝试单独计算两者的 MSE 时,它变成了一个很大的数字,即 798,768
(完整列表)等
但是我也需要 0
和 1
之间的错误,这样当我绘制它时,我可以将它与性能进行比较....
所以我的问题是:
有什么方法可以将这种类型的列表转换成0到1之间的数字而不丢失信息吗?
您可以使用它的“规范化版本”——确定系数 R^2 (https://en.m.wikipedia.org/wiki/Coefficient_of_determination),而不是 MSE,它保证在 0 和 1 之间。 有关详细信息,请参阅此答案 https://stats.stackexchange.com/questions/32596/what-is-the-difference-between-coefficient-of-determination-and-mean-squared。