sklearn SGDClassifier fit() 与 partial_fit()

sklearn SGDClassifier fit() vs partial_fit()

我对 SGDClassifierfit()partial_fit() 方法感到困惑。文档对两者都说,"Fit linear model with Stochastic Gradient Descent.".

我对随机梯度下降的了解是,它需要一个(或整个训练样本的一小部分)在一次迭代中更新模型参数。梯度下降在每次迭代中使用整个数据集。我想使用逻辑回归训练模型。我想实现正常的梯度下降和随机梯度下降并比较它们所需的时间。如何用 SGDClassifier 做到这一点? fit() 方法是否像普通梯度下降一样工作?

我认为 partial_fit 方法对于更新已经训练过的模型很有用,而 fit 方法将从头开始重新训练模型。

至于手动选择每次权重更新中包含多少数据,我似乎无法在 SGDClassifier documentation 中找到相关论据。