为什么在对相同数据和相同算法进行评估时会产生两个不同的 AUC 分数

Why two different AUC scores are produced when evaluated on same data and same algorithm

我正在处理一个分类问题,其评估指标在 ROC AUC 中。到目前为止,我已经尝试过使用具有不同参数的 xgb。这是我用来采样数据的函数。你可以找到相关的笔记本here (google colab)

def get_data(x_train, y_train, shuffle=False):

  if shuffle:
    total_train = pd.concat([x_train, y_train], axis=1)

    # generate n random number in range(0, len(data))
    n = np.random.randint(0, len(total_train), size=len(total_train))
    x_train = total_train.iloc[n]
    y_train = total_train.iloc[n]['is_pass']
    x_train.drop('is_pass', axis=1, inplace=True)

    # keep the first 1000 rows as test data
    x_test = x_train.iloc[:1000]
    # keep the 1000 to 10000 rows as validation data
    x_valid = x_train.iloc[1000:10000]
    x_train = x_train.iloc[10000:]

    y_test = y_train[:1000]
    y_valid = y_train[1000:10000]
    y_train = y_train.iloc[10000:]

    return x_train, x_valid, x_test, y_train, y_valid, y_test

  else:
    # keep the first 1000 rows as test data
    x_test = x_train.iloc[:1000]
    # keep the 1000 to 10000 rows as validation data
    x_valid = x_train.iloc[1000:10000]
    x_train = x_train.iloc[10000:]

    y_test = y_train[:1000]
    y_valid = y_train[1000:10000]
    y_train = y_train.iloc[10000:]

    return x_train, x_valid, x_test, y_train, y_valid, y_test 

这是我在 运行 后得到的两个输出,关于随机和非随机数据

AUC with shuffling:  0.9021756235738453
AUC without shuffling:  0.8025162142685565

你能找出这里的问题吗?

问题在于,在您的洗牌实施中- np.random.randint 生成随机数,但它们可以重复,因此您的训练和测试+有效集中出现了相同的事件。您应该改用 np.random.permutation(并考虑使用 np.random.seed 以确保结果的可重复性)。

另一个注意事项 - 训练集和 validation/testing 集之间的性能差异很大(训练显示几乎完美的 ROC AUC)。我想,这是由于树的最大深度 (14) 太高,您允许手头的数据集大小 (~60K)

P.S。感谢分享协作 link- 我不知道它,但它非常有用。