为什么我必须 select SBS scikit-learn 中的特征数量?
Why do I have to select number of features in SBS scikit-learn?
我在多个网站上看到了 SBS 的解释,例如 (https://www.analyticsvidhya.com/blog/2016/12/introduction-to-feature-selection-methods-with-an-example-or-how-to-select-the-right-variables/),其中指出:
- 在向后消除中,我们从所有特征开始,并在每次迭代中去除最不重要的特征,从而提高模型的性能。我们重复此操作,直到在删除功能时观察不到任何改进。
我想知道为什么我必须选择在 scikit 包中选择的功能数量?当模型不再改进时,SBS 是否应该停止选择特征?
我是不是漏掉了什么?
为此有一个拉取请求:https://github.com/scikit-learn/scikit-learn/pull/20145。 (另请参阅链接的 Issue#20137。)
我在多个网站上看到了 SBS 的解释,例如 (https://www.analyticsvidhya.com/blog/2016/12/introduction-to-feature-selection-methods-with-an-example-or-how-to-select-the-right-variables/),其中指出:
- 在向后消除中,我们从所有特征开始,并在每次迭代中去除最不重要的特征,从而提高模型的性能。我们重复此操作,直到在删除功能时观察不到任何改进。
我想知道为什么我必须选择在 scikit 包中选择的功能数量?当模型不再改进时,SBS 是否应该停止选择特征?
我是不是漏掉了什么?
为此有一个拉取请求:https://github.com/scikit-learn/scikit-learn/pull/20145。 (另请参阅链接的 Issue#20137。)