XGBoost 是如何进行并行计算的?

How does XGBoost do parallel computation?

XGBoost 使用加法训练的方法,它对先前模型的残差进行建模。

虽然是顺序的,但是如何并行计算呢?

Xgboost 不会像您提到的那样运行并行处理多棵树,您需要在每棵树之后进行预测以更新梯度。

而是它在我使用 openMP 独立创建分支的单个树中进行并行化。

为了观察这一点,构建一个巨大的数据集和 运行,n_rounds=1。你会看到你所有的核心都在一棵树上发射。这就是它如此快速的原因 - 精心设计。