尽管我在逻辑回归中使用 cross_val_score 的交叉验证,但为什么我的数据会过度拟合?

Why my data is overfitting despite my usage of cross validation with cross_val_score in logistic regression?

我正在使用取自 https://www.kaggle.com/blastchar/telco-customer-churn 的关于电信客户流失的“WA_Fn-UseC_-Telco-Customer-Churn.csv”文件,以便使用 scikit-learn 的 LogisticRegression() 预测流失。

import pandas as pd
    from sklearn.linear_model import LogisticRegression
    from sklearn.model_selection import cross_val_score
    data=pd.read_csv(file)

    #get rid of ID's
    data=data.iloc[:,1:]

    #turn categorical data to dummies
    data2=pd.get_dummies(data,columns=['gender', 'Partner', 'Dependents',
       'PhoneService', 'MultipleLines', 'InternetService', 'OnlineSecurity',
       'OnlineBackup', 'DeviceProtection', 'TechSupport', 'StreamingTV',
       'StreamingMovies', 'Contract','PaperlessBilling', 'PaymentMethod'])

    #Some cleaning and adjustment
    data2["TotalCharges"].replace('[^0-9.]',np.nan,inplace=True,regex=True)
    data2["Churn"].replace(('Yes','No'),(1,0),inplace=True)
    data2=data2.dropna()

    #assign features and target 
    X = data2[data2.columns[:-1]] # Features
    y = data2.Churn # Target variable

    scores=cross_val_score(LogisticRegression(), X, y, cv=10) 
    print(scores)

然而这只打印出 1 的分数,我也尝试使用 Shuffle 进行混洗 split.Why 我的数据过拟合了,还是有其他问题?

在数据清理中,您忘记从训练数据中删除目标列。

获得假人后,'Churn' 不再是最后一列,data2.columns[:-1] 将其留在训练集中,您的模型最终会从中学习。