机器学习概念澄清(线性回归)
Machine learning concepts clarification (linear regression)
我是机器学习的新手,在观看了一些视频后我想确保我理解了一些概念:
当涉及到线性回归时,我们可以使用以下几种方法找到截距和系数,例如:梯度下降法、正态方程和最小二乘法。
然后,为了衡量我们从上述步骤推导出的假设函数的准确性,我们可以使用 R-Square 或 Square Error 等方法。
当谈到正则化时——我们可以使用岭回归(例如)来找到系数和截距,此外还可以帮助我们消除过度拟合。
应用岭回归后,当我们得到一些系数为 0 时,这仅意味着它们不适合我们的数据 "that crucial",因此我们可以简单地将它们从我们的假设函数中删除。
这些说法都正确吗?
谢谢!
全部正确。对你的措辞稍作修改:
当我们得到一些系数为 0 时,这仅意味着它们不适合我们的数据 "that crucial",因此我们可以简单地从我们的假设中删除 相应的特征 函数。
我是机器学习的新手,在观看了一些视频后我想确保我理解了一些概念:
当涉及到线性回归时,我们可以使用以下几种方法找到截距和系数,例如:梯度下降法、正态方程和最小二乘法。
然后,为了衡量我们从上述步骤推导出的假设函数的准确性,我们可以使用 R-Square 或 Square Error 等方法。
当谈到正则化时——我们可以使用岭回归(例如)来找到系数和截距,此外还可以帮助我们消除过度拟合。 应用岭回归后,当我们得到一些系数为 0 时,这仅意味着它们不适合我们的数据 "that crucial",因此我们可以简单地将它们从我们的假设函数中删除。
这些说法都正确吗? 谢谢!
全部正确。对你的措辞稍作修改:
当我们得到一些系数为 0 时,这仅意味着它们不适合我们的数据 "that crucial",因此我们可以简单地从我们的假设中删除 相应的特征 函数。