如何使用 GridSearchCV 通过 train_test_split 策略调整参数?

How to use GridSearchCV for tuning parameters with train_test_split strategy?

我正在尝试使用 train_test_split 策略微调我的 sklearn 模型。我知道 GridSearchCV's ability to perform parameter tuning, however, it was tied to using Cross Validation strategy, I would like to use train_test_split strategy for the parameter searching, for the speed of training is important for my case, I prefer simple train_test_split 过度交叉验证。

我可以尝试编写自己的 for 循环,但如果不利用 GridSearchCV 中使用的内置并行化,效率会很低。

有人知道如何为此利用 GridSearchCV 吗?或者提供一个不太慢的替代方案。

是的,您可以为此使用 ShuffleSplit

ShuffleSplit 是一种类似于 KFold 的交叉验证策略,但与必须训练 K 模型的 KFold 不同,在这里您可以控制执行 [=23] 的次数=] 分裂,如果你愿意,甚至一次。

shuffle_split = ShuffleSplit(n_splits=1,test_size=.25)

n_splits 定义重复此拆分和训练例程的次数。 现在你可以像这样使用它了:

GridSearchCV(clf,param_grid={},cv=shuffle_split)

我想通过提供代码示例来补充 Shihab Shahriar 的

import pandas as pd
from sklearn import datasets
from sklearn.model_selection import GridSearchCV, ShuffleSplit
from sklearn.ensemble import RandomForestClassifier

# Load iris dataset
iris = datasets.load_iris()

# Prepare X and y as dataframe
X = pd.DataFrame(data=iris.data, columns=iris.feature_names)
y = pd.DataFrame(data=iris.target, columns=['Species'])

# Train test split
shuffle_split = ShuffleSplit(n_splits=1, test_size=0.3)
# This is equivalent to: 
#   X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)
# But, it is usable for GridSearchCV

# GridSearch without CV
params = { 'n_estimators': [16, 32] }
clf = RandomForestClassifier()
grid_search = GridSearchCV(clf, param_grid=params, cv=shuffle_split)
grid_search.fit(X, y)

这应该对遇到类似问题的任何人有所帮助。