XGBoost 会在边际改进后提前停止吗?
Will XGBoost early stopping stop after marginal improvements?
我知道如果我们在最后 X 轮中没有任何改进(或性能下降),就会提前停止。也就是说,我们至少需要在最后 X 轮中有一点改进才能继续。
但我在这里读到:
https://www.kaggle.com/vincentf/early-stopping-for-xgboost-python 以下代码内注释:
stops 50 iterations after marginal improvements or drop in performance on your hold out set
- 所以,
marginal improvements
好像是 no improvement
,对吗?
- 如果是,
marginal improvements
的值是多少?我们可以设置它的值吗?
您所链接的 post 中“边际改进”的含义非常不清楚(并且可以说是误导);这是来自 documentation:
的相关信息
early_stopping_rounds (int) – Activates early stopping. Validation metric needs to improve at least once in every early_stopping_rounds round(s) to continue training.
这显然不支持“边际改进”的说法。
我知道如果我们在最后 X 轮中没有任何改进(或性能下降),就会提前停止。也就是说,我们至少需要在最后 X 轮中有一点改进才能继续。
但我在这里读到: https://www.kaggle.com/vincentf/early-stopping-for-xgboost-python 以下代码内注释:
stops 50 iterations after marginal improvements or drop in performance on your hold out set
- 所以,
marginal improvements
好像是no improvement
,对吗? - 如果是,
marginal improvements
的值是多少?我们可以设置它的值吗?
您所链接的 post 中“边际改进”的含义非常不清楚(并且可以说是误导);这是来自 documentation:
的相关信息early_stopping_rounds (int) – Activates early stopping. Validation metric needs to improve at least once in every early_stopping_rounds round(s) to continue training.
这显然不支持“边际改进”的说法。