我应该先执行 train_test_split 然后执行 GridSearchCV,然后执行 K 折交叉验证吗?

Should I perform train_test_split first and then GridSearchCV and then K Fold Crossvalidation?

我对 GridSearchCV 和 K 折交叉验证之间有很多困惑。我知道 GridSearch 仅用于超参数优化,K Fold 会将我的数据拆分为 K 折并迭代它们(cv 值)。那么我应该首先将我的数据分成训练集和验证集,在训练数据上应用 GridSearch 以获得“最佳参数”,然后使用我从 GridSearch 获得的“最佳参数”对我的训练数据使用 K Fold,最后在整个数据上训练模型(火车+验证集)?或者还有其他一些执行上述操作的顺序吗?

据我了解,您不必在 GridSearchCV 之前执行 KFold。

GridSearchCV 有一个执行交叉验证的交叉验证参数。