为什么在对相同数据和相同算法进行评估时会产生两个不同的 AUC 分数
Why two different AUC scores are produced when evaluated on same data and same algorithm
我正在处理一个分类问题,其评估指标在 ROC AUC 中。到目前为止,我已经尝试过使用具有不同参数的 xgb。这是我用来采样数据的函数。你可以找到相关的笔记本here (google colab)
def get_data(x_train, y_train, shuffle=False):
if shuffle:
total_train = pd.concat([x_train, y_train], axis=1)
# generate n random number in range(0, len(data))
n = np.random.randint(0, len(total_train), size=len(total_train))
x_train = total_train.iloc[n]
y_train = total_train.iloc[n]['is_pass']
x_train.drop('is_pass', axis=1, inplace=True)
# keep the first 1000 rows as test data
x_test = x_train.iloc[:1000]
# keep the 1000 to 10000 rows as validation data
x_valid = x_train.iloc[1000:10000]
x_train = x_train.iloc[10000:]
y_test = y_train[:1000]
y_valid = y_train[1000:10000]
y_train = y_train.iloc[10000:]
return x_train, x_valid, x_test, y_train, y_valid, y_test
else:
# keep the first 1000 rows as test data
x_test = x_train.iloc[:1000]
# keep the 1000 to 10000 rows as validation data
x_valid = x_train.iloc[1000:10000]
x_train = x_train.iloc[10000:]
y_test = y_train[:1000]
y_valid = y_train[1000:10000]
y_train = y_train.iloc[10000:]
return x_train, x_valid, x_test, y_train, y_valid, y_test
这是我在 运行 后得到的两个输出,关于随机和非随机数据
AUC with shuffling: 0.9021756235738453
AUC without shuffling: 0.8025162142685565
你能找出这里的问题吗?
问题在于,在您的洗牌实施中- np.random.randint
生成随机数,但它们可以重复,因此您的训练和测试+有效集中出现了相同的事件。您应该改用 np.random.permutation
(并考虑使用 np.random.seed
以确保结果的可重复性)。
另一个注意事项 - 训练集和 validation/testing 集之间的性能差异很大(训练显示几乎完美的 ROC AUC)。我想,这是由于树的最大深度 (14) 太高,您允许手头的数据集大小 (~60K)
P.S。感谢分享协作 link- 我不知道它,但它非常有用。
我正在处理一个分类问题,其评估指标在 ROC AUC 中。到目前为止,我已经尝试过使用具有不同参数的 xgb。这是我用来采样数据的函数。你可以找到相关的笔记本here (google colab)
def get_data(x_train, y_train, shuffle=False):
if shuffle:
total_train = pd.concat([x_train, y_train], axis=1)
# generate n random number in range(0, len(data))
n = np.random.randint(0, len(total_train), size=len(total_train))
x_train = total_train.iloc[n]
y_train = total_train.iloc[n]['is_pass']
x_train.drop('is_pass', axis=1, inplace=True)
# keep the first 1000 rows as test data
x_test = x_train.iloc[:1000]
# keep the 1000 to 10000 rows as validation data
x_valid = x_train.iloc[1000:10000]
x_train = x_train.iloc[10000:]
y_test = y_train[:1000]
y_valid = y_train[1000:10000]
y_train = y_train.iloc[10000:]
return x_train, x_valid, x_test, y_train, y_valid, y_test
else:
# keep the first 1000 rows as test data
x_test = x_train.iloc[:1000]
# keep the 1000 to 10000 rows as validation data
x_valid = x_train.iloc[1000:10000]
x_train = x_train.iloc[10000:]
y_test = y_train[:1000]
y_valid = y_train[1000:10000]
y_train = y_train.iloc[10000:]
return x_train, x_valid, x_test, y_train, y_valid, y_test
这是我在 运行 后得到的两个输出,关于随机和非随机数据
AUC with shuffling: 0.9021756235738453
AUC without shuffling: 0.8025162142685565
你能找出这里的问题吗?
问题在于,在您的洗牌实施中- np.random.randint
生成随机数,但它们可以重复,因此您的训练和测试+有效集中出现了相同的事件。您应该改用 np.random.permutation
(并考虑使用 np.random.seed
以确保结果的可重复性)。
另一个注意事项 - 训练集和 validation/testing 集之间的性能差异很大(训练显示几乎完美的 ROC AUC)。我想,这是由于树的最大深度 (14) 太高,您允许手头的数据集大小 (~60K)
P.S。感谢分享协作 link- 我不知道它,但它非常有用。