绘制决策树分类器

Plot the Decision Tree Classifier

在我的 dataset 中,我有一个二进制 Target(0 或 1)变量和 8 个特征:ncharrtcTmeanweek_dayhourntagsnlinksnexweek_day 是一个因素,而其他是数字。我正在尝试构建决策树分类器:

library(caTools)
set.seed(123)
split = sample.split(dataset$Target, SplitRatio = 0.75)
training_set = subset(dataset, split == TRUE)
test_set = subset(dataset, split == FALSE)

# Feature Scaling
training_set[-c(2,4)] = scale(training_set[-c(2,4)])
test_set[-c(2,4)] = scale(test_set[-c(2,4)])

# Fitting Decision Tree Classification to the Training set
# install.packages('rpart')
library(rpart)
classifier = rpart(formula = Target ~ .,
                   data = training_set)

# Predicting the Test set results
y_pred = predict(classifier, newdata = test_set[-2], type = 'class')

# Making the Confusion Matrix
cm = table(test_set[, 2], y_pred)

plot(classifier, uniform=TRUE,margin=0.2)

绘图的结果如下:

我有三个问题不知道答案:

  1. 为什么图中缺少一些变量? (例如 rtc
  2. week_day中的aefg是什么意思?
  3. 有没有办法描述 类 不同(Target 变量为 0 对 1)?例如: 在 Target=1 中,我们有所有具有 nchar>0.19ntags>1.9

这里有一些解释,你可以从包中获取一些数据 rpart:

library(rpart)   # for decision tree
library(rattle)  # to do a nicer plot

 progstat <- factor(stagec$pgstat, levels = 0:1, labels = c("No", "Prog"))
 cfit     <- rpart(progstat ~  age + eet + g2 + grade + gleason + ploidy,
                   data = stagec,
                   method ='class')

问题一:为什么有些变量out了?
因为这些变量对您的模型没有用,或者说得更好,您已经告诉您的模型不要在参数 cp(默认值 = 0.01)下获取变量。
查看 the doccp 参数:

(...)Essentially,the user informs the program that any split which does not improve the fit by cp will likely be pruned off by cross-validation, and that hence the program need not pursue it.

我认为文档在技术上比我解释得更好,如果我必须用简单的词来讲述,cp 参数设置了节点“效用”的基线。
如果节点是由无用变量创建的,则会将其删除,因此不会出现无用(阅读:变量在模型中没有更多信息)变量。尝试在您的模型中设置参数,您将看到它是如何变化的。在我的例子中,eet 变量不存在。
发送这个:

 summary(cfit)
Call:
rpart(formula = progstat ~ age + eet + g2 + grade + gleason + 
    ploidy, data = stagec, method = "class")
  n= 146 

          CP nsplit rel error    xerror      xstd
1 0.10493827      0 1.0000000 1.0000000 0.1080241
2 0.05555556      3 0.6851852 1.0555556 0.1091597
3 0.02777778      4 0.6296296 0.9629630 0.1071508
4 0.01851852      6 0.5740741 0.9629630 0.1071508
5 0.01000000      7 0.5555556 0.9814815 0.1075992

Variable importance
     g2   grade gleason  ploidy     age     eet 
     30      28      20      13       7       2 

(... it continues...)

你可以看到 eet 是最不重要的。

问题 2: week_day 中的 aefg 是什么意思?
这意味着分裂是由左边的 week_day 和右边的一些进行的。它应该是一个分类变量。
尝试使用这个,而不是经典情节:

fancyRpartPlot(cfit, caption = NULL)

可以看到左边是双倍体和四倍体,另一个是右边。来自 here:

(...)The tree is arranged so that the “more severe” nodes go to the right

问题 3:有没有办法描述不同的 类(Target 变量为 0 vs 1)?
在这种情况下,变量是 progstat,但您可以将解释传输到您的变量。
这就是我在情节中阅读这些结果的一般方式:

查看第一个节点(最重要的):它告诉我们 63% 是“否”,37% 是“prog”(读作是)。该节点覆盖了 100% 的人口。

第二个最重要的节点是2,取入的变量是grade < 2.5。否则,您将进入节点三。

如果你向左走,你有 42% 的人口。那个人口的标签是No,但是,85%的人口是真正的No,其他的都被打错了No

TL;DR
这意味着“总人口分为 No 和 Prog,分别为 63% 和 27%。
如果变量 grade < 2.5,模型表示在我们的数据中,42% 的人口具有 grade 的值,并且在这 42% 中,其中 85% 具有结果编号。可能 grade 和因变量“no”的结果是绑定的”。
通过这种方式,您可以检查绘图中的所有节点,还可以使用 summary() 查看最重要的模式。

在你的情节中,你可以说“如果 ntags > 1.952 并且 nchar < 0.1449,那么我有一个 0.