先 GridSearchCV 然后 k 折 CV 还是反过来?

GridSearchCV first and then k fold CV or the other way round?

我对 GridSearchCV 和 K 折交叉验证有很多困惑。我知道 GridSearch 仅用于超参数优化,K Fold 会将我的数据拆分为 K 折并迭代它们(cv 值)。那么我是否应该首先将我的数据分成训练集和验证集,对训练数据应用 GridSearch 以获得“最佳参数”,然后使用我从 GridSearch 获得的“最佳参数”对我的训练数据使用 K Fold?

GirdsearchCV 本身对 HP 调整执行交叉验证。所以不需要单独执行。

此外,如果您执行 NestedCV 而不是仅执行 Gridsearch 会更好。普通的旧香草 cv 给你一个过于乐观的估计。嵌套 CV 在一定程度上减少了这种偏差。