机器学习概念澄清(线性回归)

Machine learning concepts clarification (linear regression)

我是机器学习的新手,在观看了一些视频后我想确保我理解了一些概念:

  1. 当涉及到线性回归时,我们可以使用以下几种方法找到截距和系数,例如:梯度下降法、正态方程和最小二乘法。

  2. 然后,为了衡量我们从上述步骤推导出的假设函数的准确性,我们可以使用 R-Square 或 Square Error 等方法。

  3. 当谈到正则化时——我们可以使用岭回归(例如)来找到系数和截距,此外还可以帮助我们消除过度拟合。 应用岭回归后,当我们得到一些系数为 0 时,这仅意味着它们不适合我们的数据 "that crucial",因此我们可以简单地将它们从我们的假设函数中删除。

这些说法都正确吗? 谢谢!

全部正确。对你的措辞稍作修改:

当我们得到一些系数为 0 时,这仅意味着它们不适合我们的数据 "that crucial",因此我们可以简单地从我们的假设中删除 相应的特征 函数。