如何计算决策树的泛化错误率
How to calculate the generalization error rate of a decision tree
我正在做 数据挖掘简介 的练习,但遇到了以下有关决策树的问题:
培训
测试
决策树
题目要求我用乐观和悲观的方法计算泛化错误率,答案分别是0.3和0.5。
它们与我的答案 0.5 和 0.7 完全不同。根据我的计算,实例 3、7、8、9、10 是错误分类。
我在 Google 上搜索了很多文档,但它们都没有解释为什么,只是显示 3 / 10 = 0.3。
请告诉我我犯了什么错误,谢谢!
你弄错了,小姐class确定的是:
- 训练中:3、5、6
- 测试中:12、13、14、15
您的决策树是:
- return + iff(不是 a 也不是 b)或(a 和 c)
例如 3:
A=0 B=1 C=0 class=+,你的 DT returns - A=0 和 B=1
我认为您的答案是正确的,解决方案手册的答案是错误的,并且您在此处复制树时犯了一个错误 - 在我的书副本中,叶节点标签从左到右读取, +、-、+、-。你的树,有叶节点+、-、-、+,确实分别导致乐观和悲观错误估计的 30% 和 50%。
使用叶子节点+、-、+、-,误差确实是50%和70%。
你的回答是正确的。
它是 '+' 当且仅当(不是 A && 不是 B) || (A && 不是 C)
我正在做 数据挖掘简介 的练习,但遇到了以下有关决策树的问题:
培训
测试
决策树
题目要求我用乐观和悲观的方法计算泛化错误率,答案分别是0.3和0.5。 它们与我的答案 0.5 和 0.7 完全不同。根据我的计算,实例 3、7、8、9、10 是错误分类。 我在 Google 上搜索了很多文档,但它们都没有解释为什么,只是显示 3 / 10 = 0.3。 请告诉我我犯了什么错误,谢谢!
你弄错了,小姐class确定的是:
- 训练中:3、5、6
- 测试中:12、13、14、15
您的决策树是:
- return + iff(不是 a 也不是 b)或(a 和 c)
例如 3:
A=0 B=1 C=0 class=+,你的 DT returns - A=0 和 B=1
我认为您的答案是正确的,解决方案手册的答案是错误的,并且您在此处复制树时犯了一个错误 - 在我的书副本中,叶节点标签从左到右读取, +、-、+、-。你的树,有叶节点+、-、-、+,确实分别导致乐观和悲观错误估计的 30% 和 50%。
使用叶子节点+、-、+、-,误差确实是50%和70%。
你的回答是正确的。 它是 '+' 当且仅当(不是 A && 不是 B) || (A && 不是 C)