梯度下降算法中的偏导数项

Partial Derivative term in the Gradient Descent Algorithm

我正在学习 Coursera 的“机器学习 - Andrew Ng”课程。在名为“梯度下降”的课程中,我发现公式有点复杂。该定理由“偏导数”项组成。
这个问题让我理解了偏导数项的计算。因此,后来的术语计算为

1/m * ∑ ​ (h θ ​ (x) − y(i) )²


我的问题是,“'Cost Function' 的 1/2m 在计算梯度下降定理中的偏导数?

的微分是 2x。 同样,∑​(h θ​(x) − y(i) )²的微分是2 * ∑​(h θ​(x) − y(i) )。 因此,1/2m * ∑​(h θ​(x) − y(i) )²的微分是1/m * ∑​(h θ​(x) − y(i) ).