scikit-learn GradientBoostingClassifier 中变量的惩罚?
Penalties on variables in scikit-learn GradientBoostingClassifier?
有没有办法惩罚一个特征,使其不支配模型? (在 Salford Predictive Modeller 中,有一个名为 "Penalties on Variables" 的设置)
情况是我有一个分类特征,我想将其包含在模型中,但我不想将其作为最重要的特征,因为此后模型无法正确捕获解释的方差其他预测变量。
我认为你不能那样做。虽然我不太明白你为什么要这样做,但你可以尝试以下操作:
在整个数据集上训练一个模型,去除这个特征后在数据集上训练一个单独的模型。然后,结合两个模型的结果(可能是简单的平均或堆叠等)
有没有办法惩罚一个特征,使其不支配模型? (在 Salford Predictive Modeller 中,有一个名为 "Penalties on Variables" 的设置)
情况是我有一个分类特征,我想将其包含在模型中,但我不想将其作为最重要的特征,因为此后模型无法正确捕获解释的方差其他预测变量。
我认为你不能那样做。虽然我不太明白你为什么要这样做,但你可以尝试以下操作: 在整个数据集上训练一个模型,去除这个特征后在数据集上训练一个单独的模型。然后,结合两个模型的结果(可能是简单的平均或堆叠等)