如何获得 catboost 可视化以显示类别
How to get catboost visualization to show the categories
考虑以下数据:
import pandas as pd
y_train = pd.DataFrame({0: {14194: 'Fake', 13891: 'Fake', 13247: 'Fake', 11236: 'Fake', 2716: 'Real', 2705: 'Real', 16133: 'Fake', 7652: 'Real', 7725: 'Real', 16183: 'Fake'}})
X_train = pd.DataFrame({'one': {14194: 'e',
13891: 'b',
13247: 'v',
11236: 't',
2716: 'e',
2705: 'e',
16133: 'h',
7652: 's',
7725: 's',
16183: 's'},
'two': {14194: 'a',
13891: 'a',
13247: 'e',
11236: 'n',
2716: 'c',
2705: 'a',
16133: 'n',
7652: 'e',
7725: 'h',
16183: 'e'},
'three': {14194: 's',
13891: 'l',
13247: 'n',
11236: 'c',
2716: 'h',
2705: 'r',
16133: 'i',
7652: 'r',
7725: 'e',
16183: 's'},
'four': {14194: 'd',
13891: 'e',
13247: 'r',
11236: 'g',
2716: 'o',
2705: 'r',
16133: 'p',
7652: 'v',
7725: 'r',
16183: 'i'},
'five': {14194: 'f',
13891: 'b',
13247: 'o',
11236: 'b',
2716: 'i',
2705: 'i',
16133: 'i',
7652: 'i',
7725: 'b',
16183: 'i'},
'six': {14194: 'p',
13891: 's',
13247: 'l',
11236: 'l',
2716: 'n',
2705: 'n',
16133: 'n',
7652: 'l',
7725: 'e',
16183: 'u'},
'seven': {14194: 's',
13891: 's',
13247: 's',
11236: 'e',
2716: 'g',
2705: 'g',
16133: 's',
7652: 'e',
7725: 't',
16183: 'r'}})
和以下代码:
from catboost import CatBoostClassifier
from catboost import Pool
cat_features = list(X_train.columns)
pool = Pool(X_train, y_train, cat_features=list(range(7)), feature_names=cat_features)
model = CatBoostClassifier(verbose=0).fit(pool)
model.plot_tree(
tree_idx=1,
pool=pool # "pool" is required parameter for trees with one hot features
)
我得到以下信息:
但是我不明白{five} pr_num0 tb0 type0, value>8 是什么意思。我希望它看起来像手册中的泰坦尼克号示例:
import catboost
from catboost import CatBoostClassifier, Pool
from catboost.datasets import titanic
titanic_df = titanic()
X = titanic_df[0].drop('Survived',axis=1)
y = titanic_df[0].Survived
is_cat = (X.dtypes != float)
for feature, feat_is_cat in is_cat.to_dict().items():
if feat_is_cat:
X[feature].fillna("NAN", inplace=True)
cat_features_index = np.where(is_cat)[0]
pool = Pool(X, y, cat_features=cat_features_index, feature_names=list(X.columns))
model = CatBoostClassifier(
max_depth=2, verbose=False, max_ctr_complexity=1, iterations=2).fit(pool)
model.plot_tree(
tree_idx=0,
pool=pool
)
这给出:
如何为我的示例获得 Sex, value = Female
的等价物?例如,One, value = b
.
TLDR; 这实际上不是可视化问题,而是更多关于如何在 Catboost 中完成特征拆分的问题。
Catboost 根据名为 one_hot_max_size
的参数来决定哪些特征是 one-hot 的,哪些是 ctr 的。如果一个特征中 classes 的数量 <= one_hot_max_size
那么它将被视为 one-hot。默认情况下,它设置为 2。因此,只有二元特征(0,1 或男性、女性)被视为 one-hot,其他特征(例如 PClass -> 1,2,3)被视为 ctr。将它设置得足够高将允许您强制 catboost 将您的列编码为 one-hot。
{five} pr_num0 tb0 type0, value>8
基本上是一个标签,ctr split 的值。没有可用的文档,但在检查 github 存储库后,标签似乎是使用多重哈希生成的。
下面有更多详细信息。
如何选择特征拆分?
通过 3 个步骤为叶子选择了 feature-split
对:
- 一个列表由可能的候选者(“特征-分裂对”)组成,作为分裂被分配给叶子。
- 为每个对象计算若干惩罚函数(条件是步骤1中得到的所有候选都已分配给叶子)。
- 选择惩罚最小的拆分。
特征分割的类型
共有三种拆分类型:FloatFeature
、OneHotFeature
和 OnlineCtr
。这些基于对特征进行的编码。
- FloatFeature: 一个float feature split取一个float类型的feature并且计算split value(border)。浮动特征在可视化中表示为具有特征索引和边界值 (check this):
9, border<257.23 #feature index, border value
- OneHotFeature:在one-hot特征中,每个class可以用一个
max of n possible values (0 or 1)
表示。 n
由名为 one_hot_max_size
的参数决定,默认设置为 2。请注意,在 titanic 数据集的情况下,Sex
只有 2 个可能的值,Male
或 Female
。如果您设置 one_hot_max_size=4
,则 catboost 使用一个热来编码具有最多 4 个独特 classes 的特征(例如,泰坦尼克号中的 Pclass 有 3 个独特的 classes)。 one-hot 特征用特征名称表示,其值:
Sex, value=Female #feature name, value
- OnlineCtr:在 catboost 模型中可以看到的第三种拆分类型。不计算用于单热编码 (link) 的特征的 Ctrs。如果特征中可能的 classes 数量超过
one_hot_max_size
设置的限制,则 catboost 会自动使用 ctr 对特征进行编码,因此拆分类型是 OnlineCtr。它由特征名称、一些代表唯一 classes 的虚拟标记和一个值表示:
{five} pr_num1 tb0 type0, value>9 #Label, value
##Inspecting github, the label seems to be from a multihash
##The multihash seems to be made from (CatFeatureIdx, CtrIdx, TargetBorderIdx, PriorIdx)
##https://github.com/catboost/catboost/blob/master/catboost/libs/data/ctrs.h
正在分析手头的数据集
我们先来看看每个特征中唯一 classes 的数量。
from catboost import CatBoostClassifier, Pool
import pandas as pd
X_train.describe().loc['unique']
one 6
two 5
three 8
four 8
five 4
six 6
seven 5
Name: unique, dtype: object
如您所见,唯一 classes 的最小数量为 4(在称为“五”的特征中),最大数量为 8。让我们设置 one_hot_max_size = 4
.
cat_features = list(X_train.columns)
pool = Pool(X_train, y_train, cat_features=list(range(7)), feature_names=cat_features)
model = CatBoostClassifier(verbose=0, one_hot_max_size=4).fit(pool)
model.plot_tree(tree_idx=1,pool=pool)
特征“五”现在是 OneHotFeature
并导致拆分描述 five, value=i
。但是,特征“一”仍然是 OnlineCtr
.
现在让我们设置 one_hot_max_size = 8
,这是最大可能的唯一 classes。这将确保每个特征都是 OneHotFeature
而不是 OnlineCtr
cat_features = list(X_train.columns)
pool = Pool(X_train, y_train, cat_features=list(range(7)), feature_names=cat_features)
model = CatBoostClassifier(verbose=0, one_hot_max_size=8).fit(pool)
model.plot_tree(tree_idx=1,pool=pool)
希望这能澄清您关于泰坦尼克号 Sex
的显示方式与您正在使用的功能不同的问题。
有关此内容的更多信息,请查看这些链接 -
- https://colab.research.google.com/github/catboost/tutorials/blob/master/model_analysis/model_export_as_json_tutorial.ipynb
- https://catboost.ai/docs/features/categorical-features.html
- https://catboost.ai/docs/concepts/algorithm-main-stages_cat-to-numberic.html#algorithm-main-stages_cat-to-numberic
- https://github.com/catboost/tutorials/blob/master/model_analysis/visualize_decision_trees_tutorial.ipynb
考虑以下数据:
import pandas as pd
y_train = pd.DataFrame({0: {14194: 'Fake', 13891: 'Fake', 13247: 'Fake', 11236: 'Fake', 2716: 'Real', 2705: 'Real', 16133: 'Fake', 7652: 'Real', 7725: 'Real', 16183: 'Fake'}})
X_train = pd.DataFrame({'one': {14194: 'e',
13891: 'b',
13247: 'v',
11236: 't',
2716: 'e',
2705: 'e',
16133: 'h',
7652: 's',
7725: 's',
16183: 's'},
'two': {14194: 'a',
13891: 'a',
13247: 'e',
11236: 'n',
2716: 'c',
2705: 'a',
16133: 'n',
7652: 'e',
7725: 'h',
16183: 'e'},
'three': {14194: 's',
13891: 'l',
13247: 'n',
11236: 'c',
2716: 'h',
2705: 'r',
16133: 'i',
7652: 'r',
7725: 'e',
16183: 's'},
'four': {14194: 'd',
13891: 'e',
13247: 'r',
11236: 'g',
2716: 'o',
2705: 'r',
16133: 'p',
7652: 'v',
7725: 'r',
16183: 'i'},
'five': {14194: 'f',
13891: 'b',
13247: 'o',
11236: 'b',
2716: 'i',
2705: 'i',
16133: 'i',
7652: 'i',
7725: 'b',
16183: 'i'},
'six': {14194: 'p',
13891: 's',
13247: 'l',
11236: 'l',
2716: 'n',
2705: 'n',
16133: 'n',
7652: 'l',
7725: 'e',
16183: 'u'},
'seven': {14194: 's',
13891: 's',
13247: 's',
11236: 'e',
2716: 'g',
2705: 'g',
16133: 's',
7652: 'e',
7725: 't',
16183: 'r'}})
和以下代码:
from catboost import CatBoostClassifier
from catboost import Pool
cat_features = list(X_train.columns)
pool = Pool(X_train, y_train, cat_features=list(range(7)), feature_names=cat_features)
model = CatBoostClassifier(verbose=0).fit(pool)
model.plot_tree(
tree_idx=1,
pool=pool # "pool" is required parameter for trees with one hot features
)
我得到以下信息:
但是我不明白{five} pr_num0 tb0 type0, value>8 是什么意思。我希望它看起来像手册中的泰坦尼克号示例:
import catboost
from catboost import CatBoostClassifier, Pool
from catboost.datasets import titanic
titanic_df = titanic()
X = titanic_df[0].drop('Survived',axis=1)
y = titanic_df[0].Survived
is_cat = (X.dtypes != float)
for feature, feat_is_cat in is_cat.to_dict().items():
if feat_is_cat:
X[feature].fillna("NAN", inplace=True)
cat_features_index = np.where(is_cat)[0]
pool = Pool(X, y, cat_features=cat_features_index, feature_names=list(X.columns))
model = CatBoostClassifier(
max_depth=2, verbose=False, max_ctr_complexity=1, iterations=2).fit(pool)
model.plot_tree(
tree_idx=0,
pool=pool
)
这给出:
如何为我的示例获得 Sex, value = Female
的等价物?例如,One, value = b
.
TLDR; 这实际上不是可视化问题,而是更多关于如何在 Catboost 中完成特征拆分的问题。
Catboost 根据名为 one_hot_max_size
的参数来决定哪些特征是 one-hot 的,哪些是 ctr 的。如果一个特征中 classes 的数量 <= one_hot_max_size
那么它将被视为 one-hot。默认情况下,它设置为 2。因此,只有二元特征(0,1 或男性、女性)被视为 one-hot,其他特征(例如 PClass -> 1,2,3)被视为 ctr。将它设置得足够高将允许您强制 catboost 将您的列编码为 one-hot。
{five} pr_num0 tb0 type0, value>8
基本上是一个标签,ctr split 的值。没有可用的文档,但在检查 github 存储库后,标签似乎是使用多重哈希生成的。
下面有更多详细信息。
如何选择特征拆分?
通过 3 个步骤为叶子选择了 feature-split
对:
- 一个列表由可能的候选者(“特征-分裂对”)组成,作为分裂被分配给叶子。
- 为每个对象计算若干惩罚函数(条件是步骤1中得到的所有候选都已分配给叶子)。
- 选择惩罚最小的拆分。
特征分割的类型
共有三种拆分类型:FloatFeature
、OneHotFeature
和 OnlineCtr
。这些基于对特征进行的编码。
- FloatFeature: 一个float feature split取一个float类型的feature并且计算split value(border)。浮动特征在可视化中表示为具有特征索引和边界值 (check this):
9, border<257.23 #feature index, border value
- OneHotFeature:在one-hot特征中,每个class可以用一个
max of n possible values (0 or 1)
表示。n
由名为one_hot_max_size
的参数决定,默认设置为 2。请注意,在 titanic 数据集的情况下,Sex
只有 2 个可能的值,Male
或Female
。如果您设置one_hot_max_size=4
,则 catboost 使用一个热来编码具有最多 4 个独特 classes 的特征(例如,泰坦尼克号中的 Pclass 有 3 个独特的 classes)。 one-hot 特征用特征名称表示,其值:
Sex, value=Female #feature name, value
- OnlineCtr:在 catboost 模型中可以看到的第三种拆分类型。不计算用于单热编码 (link) 的特征的 Ctrs。如果特征中可能的 classes 数量超过
one_hot_max_size
设置的限制,则 catboost 会自动使用 ctr 对特征进行编码,因此拆分类型是 OnlineCtr。它由特征名称、一些代表唯一 classes 的虚拟标记和一个值表示:
{five} pr_num1 tb0 type0, value>9 #Label, value
##Inspecting github, the label seems to be from a multihash
##The multihash seems to be made from (CatFeatureIdx, CtrIdx, TargetBorderIdx, PriorIdx)
##https://github.com/catboost/catboost/blob/master/catboost/libs/data/ctrs.h
正在分析手头的数据集
我们先来看看每个特征中唯一 classes 的数量。
from catboost import CatBoostClassifier, Pool
import pandas as pd
X_train.describe().loc['unique']
one 6
two 5
three 8
four 8
five 4
six 6
seven 5
Name: unique, dtype: object
如您所见,唯一 classes 的最小数量为 4(在称为“五”的特征中),最大数量为 8。让我们设置 one_hot_max_size = 4
.
cat_features = list(X_train.columns)
pool = Pool(X_train, y_train, cat_features=list(range(7)), feature_names=cat_features)
model = CatBoostClassifier(verbose=0, one_hot_max_size=4).fit(pool)
model.plot_tree(tree_idx=1,pool=pool)
特征“五”现在是 OneHotFeature
并导致拆分描述 five, value=i
。但是,特征“一”仍然是 OnlineCtr
.
现在让我们设置 one_hot_max_size = 8
,这是最大可能的唯一 classes。这将确保每个特征都是 OneHotFeature
而不是 OnlineCtr
cat_features = list(X_train.columns)
pool = Pool(X_train, y_train, cat_features=list(range(7)), feature_names=cat_features)
model = CatBoostClassifier(verbose=0, one_hot_max_size=8).fit(pool)
model.plot_tree(tree_idx=1,pool=pool)
希望这能澄清您关于泰坦尼克号 Sex
的显示方式与您正在使用的功能不同的问题。
有关此内容的更多信息,请查看这些链接 -
- https://colab.research.google.com/github/catboost/tutorials/blob/master/model_analysis/model_export_as_json_tutorial.ipynb
- https://catboost.ai/docs/features/categorical-features.html
- https://catboost.ai/docs/concepts/algorithm-main-stages_cat-to-numberic.html#algorithm-main-stages_cat-to-numberic
- https://github.com/catboost/tutorials/blob/master/model_analysis/visualize_decision_trees_tutorial.ipynb