如何实现朴素的批量梯度下降?

How to implement naive batch gradient descent?

各位。我对梯度下降的实现有疑问。我找到了几个优化器,像ada_grad、adam、sgd 等等,它们是完美的。但是我正在尝试实现具有固定学习率并作用于每批中的整个示例的朴素梯度方法批梯度下降。怎么做?等待你的帮助。非常感谢。

使用足够大的批量大小和 SGD 怎么样?相当于简单的梯度下降法