具有随机梯度下降 (SGD) 更新规则的线性回归

Linear regression with Stochastic Gradient Descent (SGD) update rule

我知道我们在 SGD 中更新权重 w.r.t。到单个训练示例,例如:

for i in range(m):
   weights = weights + (alpha * gradient) # for each i in m

然后我们是根据这个单一更新还是在整个 运行 训练集之后计算新的均方误差(我的成本函数)?

基于单次更新。使用单个训练示例估计梯度,然后将其用于更新您的权重。更新后,您可以计算新的损失函数以查看您的优化效果如何。