python 中的回归 OLS

regression OLS in python

我对python中的多元回归模型有一些疑问:

  1. 为什么最小二乘法 (OLS) 需要应用 1 的“虚拟截距”向量开始? (我指的是 X = sm.add_constant(X) 的使用。我知道最小二乘法是一个等于零的导数系统。它是用某种迭代方法计算的,需要“虚拟截距” ? 我在哪里可以找到有关算法 est = sm.OLS(y, X).fit()?

    的一些信息 material
  2. 据我了解,scale.fit_transform 生成数据的规范化。通常归一化不会产生高于 1 的值。为什么缩放后我会看到超过 1 的值?

  3. 在哪里可以找到关于 python 函数的官方文档?

提前致谢

  1. 在 OLS 中,您尝试拟合的函数是: y=ax1+ax2+ax3+c。如果你不使用 c 项,你的线将始终通过原点。因此,为了给你的线更多的自由度,你需要 c .

你可以拟合一条没有常数项的直线,你会得到一组系数(迭代计算不需要虚拟截距),但这可能不是使最小二乘最小化的最佳直线。