梯度下降算法中的偏导数项
Partial Derivative term in the Gradient Descent Algorithm
我正在学习 Coursera 的“机器学习 - Andrew Ng”课程。在名为“梯度下降”的课程中,我发现公式有点复杂。该定理由“偏导数”项组成。
这个问题让我理解了偏导数项的计算。因此,后来的术语计算为
1/m *
∑
(h
θ
(x) − y(i)
)²
我的问题是,“'Cost Function' 的 1/2m 在计算梯度下降定理中的偏导数?
x²
的微分是 2x
。
同样,∑(h θ(x) − y(i) )²
的微分是2 * ∑(h θ(x) − y(i) )
。
因此,1/2m * ∑(h θ(x) − y(i) )²
的微分是1/m * ∑(h θ(x) − y(i) )
.
我正在学习 Coursera 的“机器学习 - Andrew Ng”课程。在名为“梯度下降”的课程中,我发现公式有点复杂。该定理由“偏导数”项组成。
这个问题让我理解了偏导数项的计算。因此,后来的术语计算为
1/m * ∑ (h θ (x) − y(i) )²
我的问题是,“'Cost Function' 的 1/2m 在计算梯度下降定理中的偏导数?
x²
的微分是 2x
。
同样,∑(h θ(x) − y(i) )²
的微分是2 * ∑(h θ(x) − y(i) )
。
因此,1/2m * ∑(h θ(x) − y(i) )²
的微分是1/m * ∑(h θ(x) − y(i) )
.