使用 Scikit-learn 回归时的截距和系数解释值
intercept & coefficients interpretation values when using Scikit-learn regression
我有包含 a、b、c 特征和 R 结果的数据
a b c R
245 49 158 166.6543133
3 195 191 100.3637372
. . . .
我使用 scikit 学习应用线性回归 Linear regression 并得到:
截距 B0
和 [k0,k1,k2]
系数。
如何在不需要使用 predict
函数的情况下使用这些变量预测结果?
编辑:
我通过将 RGB 应用于 XYZ (CEI) 得到数据,确实系数与标准公式相似。
Standard formula coeff : [0.4887180 0.3106803 0.2006017]
Linear regression coeff : [0.488718 0.3106803 0.2006017]
您可以将变量 yhat 创建为
yhat = B0 + k0 * x1 + k1 * x2 + k2 * x3
其中 x1、x2 和 x3 是您的自变量。
注:
- 以上是线性回归模型的方程式,可以扩展到任意数量的变量。
yhat
存储基于估计系数 的给定 x1、x2 和 x3 值的预测值
我有包含 a、b、c 特征和 R 结果的数据
a b c R
245 49 158 166.6543133
3 195 191 100.3637372
. . . .
我使用 scikit 学习应用线性回归 Linear regression 并得到:
截距 B0
和 [k0,k1,k2]
系数。
如何在不需要使用 predict
函数的情况下使用这些变量预测结果?
编辑:
我通过将 RGB 应用于 XYZ (CEI) 得到数据,确实系数与标准公式相似。
Standard formula coeff : [0.4887180 0.3106803 0.2006017]
Linear regression coeff : [0.488718 0.3106803 0.2006017]
您可以将变量 yhat 创建为
yhat = B0 + k0 * x1 + k1 * x2 + k2 * x3
其中 x1、x2 和 x3 是您的自变量。
注:
- 以上是线性回归模型的方程式,可以扩展到任意数量的变量。
yhat
存储基于估计系数 的给定 x1、x2 和 x3 值的预测值