GridSearchCV best_score_ 属性的含义是什么? (该值与交叉验证数组的平均值不同)
What is the meaning of the GridSearchCV best_score_ attribute? (the value is different from the mean of the cross validation array)
我对结果感到困惑,可能我没有正确理解交叉验证和 GridSearch 的概念。我遵循了这个 post 背后的逻辑:
https://randomforests.wordpress.com/2014/02/02/basics-of-k-fold-cross-validation-and-gridsearchcv-in-scikit-learn/
argd = CommandLineParser(argv)
folder,fname=argd['dir'],argd['fname']
df = pd.read_csv('../../'+folder+'/Results/'+fname, sep=";")
explanatory_variable_columns = set(df.columns.values)
response_variable_column = df['A']
explanatory_variable_columns.remove('A')
y = np.array([1 if e else 0 for e in response_variable_column])
X =df[list(explanatory_variable_columns)].as_matrix()
kf_total = KFold(len(X), n_folds=5, indices=True, shuffle=True, random_state=4)
dt=DecisionTreeClassifier(criterion='entropy')
min_samples_split_range=[x for x in range(1,20)]
dtgs=GridSearchCV(estimator=dt, param_grid=dict(min_samples_split=min_samples_split_range), n_jobs=1)
scores=[dtgs.fit(X[train],y[train]).score(X[test],y[test]) for train, test in kf_total]
# SAME AS DOING: cross_validation.cross_val_score(dtgs, X, y, cv=kf_total, n_jobs = 1)
print scores
print np.mean(scores)
print dtgs.best_score_
获得的结果:
# score [0.81818181818181823, 0.78181818181818186, 0.7592592592592593, 0.7592592592592593, 0.72222222222222221]
# mean score 0.768
# .best_score_ 0.683486238532
补充说明:
我 运行 它使用解释变量的另一种组合(仅使用其中的一些),我得到了反问题。现在 .best_score_ 高于交叉验证数组中的所有值。
# score [0.74545454545454548, 0.70909090909090911, 0.79629629629629628, 0.7407407407407407, 0.64814814814814814]
# mean score 0.728
# .best_score_ 0.802752293578
代码混淆了几件事。
dtgs.fit(X[train_],y[train_])
对来自 param_grid
的每个参数组合进行内部 3 折交叉验证,生成 20 个结果的网格,您可以通过调用 dtgs.grid_scores_
.
打开它
[dtgs.fit(X[train_],y[train_]).score(X[test],y[test]) for train_, test in kf_total]
因此这条线适合网格搜索五次,然后使用 5 折交叉验证得到它的分数。结果是 5 折验证分数的数组。
并且当您调用 dtgs.best_score_
时,您会在 last 拟合(共 5 个)的超参数 3 重验证结果的网格中获得最佳分数.
我对结果感到困惑,可能我没有正确理解交叉验证和 GridSearch 的概念。我遵循了这个 post 背后的逻辑: https://randomforests.wordpress.com/2014/02/02/basics-of-k-fold-cross-validation-and-gridsearchcv-in-scikit-learn/
argd = CommandLineParser(argv)
folder,fname=argd['dir'],argd['fname']
df = pd.read_csv('../../'+folder+'/Results/'+fname, sep=";")
explanatory_variable_columns = set(df.columns.values)
response_variable_column = df['A']
explanatory_variable_columns.remove('A')
y = np.array([1 if e else 0 for e in response_variable_column])
X =df[list(explanatory_variable_columns)].as_matrix()
kf_total = KFold(len(X), n_folds=5, indices=True, shuffle=True, random_state=4)
dt=DecisionTreeClassifier(criterion='entropy')
min_samples_split_range=[x for x in range(1,20)]
dtgs=GridSearchCV(estimator=dt, param_grid=dict(min_samples_split=min_samples_split_range), n_jobs=1)
scores=[dtgs.fit(X[train],y[train]).score(X[test],y[test]) for train, test in kf_total]
# SAME AS DOING: cross_validation.cross_val_score(dtgs, X, y, cv=kf_total, n_jobs = 1)
print scores
print np.mean(scores)
print dtgs.best_score_
获得的结果:
# score [0.81818181818181823, 0.78181818181818186, 0.7592592592592593, 0.7592592592592593, 0.72222222222222221]
# mean score 0.768
# .best_score_ 0.683486238532
补充说明:
我 运行 它使用解释变量的另一种组合(仅使用其中的一些),我得到了反问题。现在 .best_score_ 高于交叉验证数组中的所有值。
# score [0.74545454545454548, 0.70909090909090911, 0.79629629629629628, 0.7407407407407407, 0.64814814814814814]
# mean score 0.728
# .best_score_ 0.802752293578
代码混淆了几件事。
dtgs.fit(X[train_],y[train_])
对来自 param_grid
的每个参数组合进行内部 3 折交叉验证,生成 20 个结果的网格,您可以通过调用 dtgs.grid_scores_
.
[dtgs.fit(X[train_],y[train_]).score(X[test],y[test]) for train_, test in kf_total]
因此这条线适合网格搜索五次,然后使用 5 折交叉验证得到它的分数。结果是 5 折验证分数的数组。
并且当您调用 dtgs.best_score_
时,您会在 last 拟合(共 5 个)的超参数 3 重验证结果的网格中获得最佳分数.