绘制决策树分类器
Plot the Decision Tree Classifier
在我的 dataset
中,我有一个二进制 Target
(0 或 1)变量和 8 个特征:nchar
、rtc
、Tmean
、 week_day
、hour
、ntags
、nlinks
和 nex
。 week_day
是一个因素,而其他是数字。我正在尝试构建决策树分类器:
library(caTools)
set.seed(123)
split = sample.split(dataset$Target, SplitRatio = 0.75)
training_set = subset(dataset, split == TRUE)
test_set = subset(dataset, split == FALSE)
# Feature Scaling
training_set[-c(2,4)] = scale(training_set[-c(2,4)])
test_set[-c(2,4)] = scale(test_set[-c(2,4)])
# Fitting Decision Tree Classification to the Training set
# install.packages('rpart')
library(rpart)
classifier = rpart(formula = Target ~ .,
data = training_set)
# Predicting the Test set results
y_pred = predict(classifier, newdata = test_set[-2], type = 'class')
# Making the Confusion Matrix
cm = table(test_set[, 2], y_pred)
plot(classifier, uniform=TRUE,margin=0.2)
绘图的结果如下:
我有三个问题不知道答案:
- 为什么图中缺少一些变量? (例如
rtc
)
week_day
中的aefg
是什么意思?
- 有没有办法描述
类 不同(
Target
变量为 0 对 1)?例如:
在 Target=1
中,我们有所有具有 nchar>0.19
和
ntags>1.9
等
这里有一些解释,你可以从包中获取一些数据 rpart
:
library(rpart) # for decision tree
library(rattle) # to do a nicer plot
progstat <- factor(stagec$pgstat, levels = 0:1, labels = c("No", "Prog"))
cfit <- rpart(progstat ~ age + eet + g2 + grade + gleason + ploidy,
data = stagec,
method ='class')
问题一:为什么有些变量out了?
因为这些变量对您的模型没有用,或者说得更好,您已经告诉您的模型不要在参数 cp
(默认值 = 0.01)下获取变量。
查看 the doc 的 cp
参数:
(...)Essentially,the user informs the program that any split which does not
improve the fit by cp will likely be pruned off by cross-validation,
and that hence the program need not pursue it.
我认为文档在技术上比我解释得更好,如果我必须用简单的词来讲述,cp
参数设置了节点“效用”的基线。
如果节点是由无用变量创建的,则会将其删除,因此不会出现无用(阅读:变量在模型中没有更多信息)变量。尝试在您的模型中设置参数,您将看到它是如何变化的。在我的例子中,eet
变量不存在。
发送这个:
summary(cfit)
Call:
rpart(formula = progstat ~ age + eet + g2 + grade + gleason +
ploidy, data = stagec, method = "class")
n= 146
CP nsplit rel error xerror xstd
1 0.10493827 0 1.0000000 1.0000000 0.1080241
2 0.05555556 3 0.6851852 1.0555556 0.1091597
3 0.02777778 4 0.6296296 0.9629630 0.1071508
4 0.01851852 6 0.5740741 0.9629630 0.1071508
5 0.01000000 7 0.5555556 0.9814815 0.1075992
Variable importance
g2 grade gleason ploidy age eet
30 28 20 13 7 2
(... it continues...)
你可以看到 eet
是最不重要的。
问题 2: week_day
中的 aefg
是什么意思?
这意味着分裂是由左边的 week_day
和右边的一些进行的。它应该是一个分类变量。
尝试使用这个,而不是经典情节:
fancyRpartPlot(cfit, caption = NULL)
可以看到左边是双倍体和四倍体,另一个是右边。来自 here:
(...)The tree is arranged so that the “more severe” nodes go to the
right
问题 3:有没有办法描述不同的 类(Target 变量为 0 vs 1)?
在这种情况下,变量是 progstat
,但您可以将解释传输到您的变量。
这就是我在情节中阅读这些结果的一般方式:
查看第一个节点(最重要的):它告诉我们 63% 是“否”,37% 是“prog”(读作是)。该节点覆盖了 100% 的人口。
第二个最重要的节点是2,取入的变量是grade
< 2.5。否则,您将进入节点三。
如果你向左走,你有 42% 的人口。那个人口的标签是No,但是,85%的人口是真正的No,其他的都被打错了No
TL;DR
这意味着“总人口分为 No 和 Prog,分别为 63% 和 27%。
如果变量 grade
< 2.5,模型表示在我们的数据中,42% 的人口具有 grade
的值,并且在这 42% 中,其中 85% 具有结果编号。可能 grade
和因变量“no”的结果是绑定的”。
通过这种方式,您可以检查绘图中的所有节点,还可以使用 summary()
查看最重要的模式。
在你的情节中,你可以说“如果 ntags
> 1.952 并且 nchar
< 0.1449,那么我有一个 0.
在我的 dataset
中,我有一个二进制 Target
(0 或 1)变量和 8 个特征:nchar
、rtc
、Tmean
、 week_day
、hour
、ntags
、nlinks
和 nex
。 week_day
是一个因素,而其他是数字。我正在尝试构建决策树分类器:
library(caTools)
set.seed(123)
split = sample.split(dataset$Target, SplitRatio = 0.75)
training_set = subset(dataset, split == TRUE)
test_set = subset(dataset, split == FALSE)
# Feature Scaling
training_set[-c(2,4)] = scale(training_set[-c(2,4)])
test_set[-c(2,4)] = scale(test_set[-c(2,4)])
# Fitting Decision Tree Classification to the Training set
# install.packages('rpart')
library(rpart)
classifier = rpart(formula = Target ~ .,
data = training_set)
# Predicting the Test set results
y_pred = predict(classifier, newdata = test_set[-2], type = 'class')
# Making the Confusion Matrix
cm = table(test_set[, 2], y_pred)
plot(classifier, uniform=TRUE,margin=0.2)
绘图的结果如下:
我有三个问题不知道答案:
- 为什么图中缺少一些变量? (例如
rtc
) week_day
中的aefg
是什么意思?- 有没有办法描述
类 不同(
Target
变量为 0 对 1)?例如: 在Target=1
中,我们有所有具有nchar>0.19
和ntags>1.9
等
这里有一些解释,你可以从包中获取一些数据 rpart
:
library(rpart) # for decision tree
library(rattle) # to do a nicer plot
progstat <- factor(stagec$pgstat, levels = 0:1, labels = c("No", "Prog"))
cfit <- rpart(progstat ~ age + eet + g2 + grade + gleason + ploidy,
data = stagec,
method ='class')
问题一:为什么有些变量out了?
因为这些变量对您的模型没有用,或者说得更好,您已经告诉您的模型不要在参数 cp
(默认值 = 0.01)下获取变量。
查看 the doc 的 cp
参数:
(...)Essentially,the user informs the program that any split which does not improve the fit by cp will likely be pruned off by cross-validation, and that hence the program need not pursue it.
我认为文档在技术上比我解释得更好,如果我必须用简单的词来讲述,cp
参数设置了节点“效用”的基线。
如果节点是由无用变量创建的,则会将其删除,因此不会出现无用(阅读:变量在模型中没有更多信息)变量。尝试在您的模型中设置参数,您将看到它是如何变化的。在我的例子中,eet
变量不存在。
发送这个:
summary(cfit)
Call:
rpart(formula = progstat ~ age + eet + g2 + grade + gleason +
ploidy, data = stagec, method = "class")
n= 146
CP nsplit rel error xerror xstd
1 0.10493827 0 1.0000000 1.0000000 0.1080241
2 0.05555556 3 0.6851852 1.0555556 0.1091597
3 0.02777778 4 0.6296296 0.9629630 0.1071508
4 0.01851852 6 0.5740741 0.9629630 0.1071508
5 0.01000000 7 0.5555556 0.9814815 0.1075992
Variable importance
g2 grade gleason ploidy age eet
30 28 20 13 7 2
(... it continues...)
你可以看到 eet
是最不重要的。
问题 2: week_day
中的 aefg
是什么意思?
这意味着分裂是由左边的 week_day
和右边的一些进行的。它应该是一个分类变量。
尝试使用这个,而不是经典情节:
fancyRpartPlot(cfit, caption = NULL)
可以看到左边是双倍体和四倍体,另一个是右边。来自 here:
(...)The tree is arranged so that the “more severe” nodes go to the right
问题 3:有没有办法描述不同的 类(Target 变量为 0 vs 1)?
在这种情况下,变量是 progstat
,但您可以将解释传输到您的变量。
这就是我在情节中阅读这些结果的一般方式:
查看第一个节点(最重要的):它告诉我们 63% 是“否”,37% 是“prog”(读作是)。该节点覆盖了 100% 的人口。
第二个最重要的节点是2,取入的变量是grade
< 2.5。否则,您将进入节点三。
如果你向左走,你有 42% 的人口。那个人口的标签是No,但是,85%的人口是真正的No,其他的都被打错了No
TL;DR
这意味着“总人口分为 No 和 Prog,分别为 63% 和 27%。
如果变量 grade
< 2.5,模型表示在我们的数据中,42% 的人口具有 grade
的值,并且在这 42% 中,其中 85% 具有结果编号。可能 grade
和因变量“no”的结果是绑定的”。
通过这种方式,您可以检查绘图中的所有节点,还可以使用 summary()
查看最重要的模式。
在你的情节中,你可以说“如果 ntags
> 1.952 并且 nchar
< 0.1449,那么我有一个 0.