使用 Scikit-learn 回归时的截距和系数解释值

intercept & coefficients interpretation values when using Scikit-learn regression

我有包含 a、b、c 特征和 R 结果的数据

a     b     c          R
245   49    158    166.6543133
3     195   191    100.3637372
.      .      .        .

我使用 scikit 学习应用线性回归 Linear regression 并得到:

截距 B0[k0,k1,k2] 系数。

如何在不需要使用 predict 函数的情况下使用这些变量预测结果?

编辑:

我通过将 RGB 应用于 XYZ (CEI) 得到数据,确实系数与标准公式相似。

Standard formula coeff    :  [0.4887180  0.3106803  0.2006017]
Linear regression coeff   :  [0.488718   0.3106803  0.2006017]

您可以将变量 yhat 创建为

yhat = B0 + k0 * x1 + k1 * x2 + k2 * x3 

其中 x1、x2 和 x3 是您的自变量。

注:

  • 以上是线性回归模型的方程式,可以扩展到任意数量的变量。
  • yhat 存储基于估计系数
  • 的给定 x1、x2 和 x3 值的预测值