sklearn SGDClassifier fit() 与 partial_fit()
sklearn SGDClassifier fit() vs partial_fit()
我对 SGDClassifier
的 fit()
和 partial_fit()
方法感到困惑。文档对两者都说,"Fit linear model with Stochastic Gradient Descent.".
我对随机梯度下降的了解是,它需要一个(或整个训练样本的一小部分)在一次迭代中更新模型参数。梯度下降在每次迭代中使用整个数据集。我想使用逻辑回归训练模型。我想实现正常的梯度下降和随机梯度下降并比较它们所需的时间。如何用 SGDClassifier
做到这一点? fit()
方法是否像普通梯度下降一样工作?
我认为 partial_fit
方法对于更新已经训练过的模型很有用,而 fit
方法将从头开始重新训练模型。
至于手动选择每次权重更新中包含多少数据,我似乎无法在 SGDClassifier documentation 中找到相关论据。
我对 SGDClassifier
的 fit()
和 partial_fit()
方法感到困惑。文档对两者都说,"Fit linear model with Stochastic Gradient Descent.".
我对随机梯度下降的了解是,它需要一个(或整个训练样本的一小部分)在一次迭代中更新模型参数。梯度下降在每次迭代中使用整个数据集。我想使用逻辑回归训练模型。我想实现正常的梯度下降和随机梯度下降并比较它们所需的时间。如何用 SGDClassifier
做到这一点? fit()
方法是否像普通梯度下降一样工作?
我认为 partial_fit
方法对于更新已经训练过的模型很有用,而 fit
方法将从头开始重新训练模型。
至于手动选择每次权重更新中包含多少数据,我似乎无法在 SGDClassifier documentation 中找到相关论据。