重用特征来拆分回归决策树的节点
Reusing a feature to split regression decision tree's nodes
在我观看的有关回归树算法的视频结束时,我留下了一个小问题:当数据集的某些特征具有比残差平方和更低的阈值时,用于拆分节点(如果节点中的观察数大于某个预定义值)。但是是否可以再次使用相同的特征来拆分树的该分支的节点?或者此分支的后续拆分必须按其他特征定义的阈值进行拆分(即使已经拆分其他节点的特征的阈值对于该节点的观测值的残差平方和而言具有较低的值)?
此外,我在研究决策树分类器时也有同样的疑问:如果一个已经在这个分支中使用过的特征可以拆分某个节点的观察结果,并且与之前的拆分相比,基尼不纯度值较低除了这个“已经使用过”的功能之外,其他功能是否允许执行拆分?
在此先感谢您的关注!
记住什么数据与树中的任何节点相关联很重要。假设我在特征 x1 上拆分根节点,其中左侧 child 具有 x1=0,右侧 child 具有 x1=1。然后 左子树中的所有东西 都会有 x1=0。不再按 x1 拆分没有意义 - 所有数据都具有相同的 x1 值!
在我观看的有关回归树算法的视频结束时,我留下了一个小问题:当数据集的某些特征具有比残差平方和更低的阈值时,用于拆分节点(如果节点中的观察数大于某个预定义值)。但是是否可以再次使用相同的特征来拆分树的该分支的节点?或者此分支的后续拆分必须按其他特征定义的阈值进行拆分(即使已经拆分其他节点的特征的阈值对于该节点的观测值的残差平方和而言具有较低的值)?
此外,我在研究决策树分类器时也有同样的疑问:如果一个已经在这个分支中使用过的特征可以拆分某个节点的观察结果,并且与之前的拆分相比,基尼不纯度值较低除了这个“已经使用过”的功能之外,其他功能是否允许执行拆分?
在此先感谢您的关注!
记住什么数据与树中的任何节点相关联很重要。假设我在特征 x1 上拆分根节点,其中左侧 child 具有 x1=0,右侧 child 具有 x1=1。然后 左子树中的所有东西 都会有 x1=0。不再按 x1 拆分没有意义 - 所有数据都具有相同的 x1 值!