scikit-learn 中的随机森林分类器使用了哪些决策树算法
what decision tree algorithms is used for Random forest classifier in scikit-learn
如标题所示,我想知道在哪里可以查看 scikit-learn 中 RandomForestClassifier 使用的决策树算法。它在属性 base_estimator_ = DecisionTreeClassifier
中说,然后在 scikitlearn 中的 DecisionTreeClassifier 后面是 CART 所以它是我的答案吗?
link 到 scikit-learn RandomForest
如有任何建议,我们将不胜感激
Scikit-learn 默认使用 CART 的优化版本 (https://scikit-learn.org/stable/modules/tree.html#tree-algorithms-id3-c4-5-c5-0-and-cart)。
它通过'using the feature and threshold that yield the largest information gain'构造树。可以使用 RandomForestClassifier.[= 中的 criterion
参数来设置衡量树中分割质量(a.k.a。最大信息增益)的函数。 15=]
默认函数是gini impurity
,但是你也可以selectentropy
。实际上,这两者非常相似,但您可以在此处找到更多信息:https://datascience.stackexchange.com/questions/10228/when-should-i-use-gini-impurity-as-opposed-to-information-gain-entropy
如标题所示,我想知道在哪里可以查看 scikit-learn 中 RandomForestClassifier 使用的决策树算法。它在属性 base_estimator_ = DecisionTreeClassifier
中说,然后在 scikitlearn 中的 DecisionTreeClassifier 后面是 CART 所以它是我的答案吗?
link 到 scikit-learn RandomForest
如有任何建议,我们将不胜感激
Scikit-learn 默认使用 CART 的优化版本 (https://scikit-learn.org/stable/modules/tree.html#tree-algorithms-id3-c4-5-c5-0-and-cart)。
它通过'using the feature and threshold that yield the largest information gain'构造树。可以使用 RandomForestClassifier.[= 中的 criterion
参数来设置衡量树中分割质量(a.k.a。最大信息增益)的函数。 15=]
默认函数是gini impurity
,但是你也可以selectentropy
。实际上,这两者非常相似,但您可以在此处找到更多信息:https://datascience.stackexchange.com/questions/10228/when-should-i-use-gini-impurity-as-opposed-to-information-gain-entropy