泰坦尼克号数据集过度拟合:能有那么多吗?

Titanic Dataset overfitting: can it be that much?

我有点困惑,因为我正在训练一个模型,该模型在训练数据上产生大约 88% 的 CV 分数,而同一模型在我提交后在测试数据上表现不佳(分数为 0.75)。 准确率下降 12 点不可能都是因为过度拟合,不是吗? 有任何想法吗?你的 models/submissions 经历过这样的落差吗?

模型和结果见附件图片。

########################################### #############

xgb_clf = XGBClassifier(n_estimators=87, learning_rate=0.05,max_depth = 10,
colsample_bytree =0.8 , n_jobs=-1 , random_state = 7,
scale_pos_weight = 0.6, min_child_weight = 0.9, gamma = 2.1)
skf = RepeatedStratifiedKFold(n_splits = 4)

results= cross_val_score(xgb_clf , X_train , y , cv =skf, scoring='roc_auc')
print("Accuracy: %.2f%% (%.2f%%)" % (results.mean()100, results.std()100))

准确率:88.13% (2.47%)

是的,这绝对可以表明过度拟合。训练准确率和测试准确率之间 12% 的差异并不罕见。事实上,在过度拟合的极端情况下,您甚至可能观察到训练集的准确率为 100%,而测试数据的准确率为偶然水平。