sklearn metrics.log_loss 是正面的,而 scoring 'neg_log_loss' 是负面的

sklearn metrics.log_loss is positive vs. scoring 'neg_log_loss' is negative

确保我做对了:

如果我们单独使用 sklearn.metrics.log_loss,即 log_loss(y_true,y_pred),它会产生一个正分数——分数越小,效果越好性能。

但是,如果我们使用 'neg_log_loss' 作为评分方案,如“cross_val_score”,则得分为负 - 得分越大,性能越好。

这是因为评分方案与其他评分方案保持一致。由于一般来说越高越好,我们否定通常的log_loss以符合趋势。这样做完全是为了这个目的。这个理解对吗?

[背景:metric.log_loss 得到正面分数,'neg_los_loss' 得到负面分数,并且两者都引用相同的文档页面。]

sklearn.metrics.log_loss 是通常定义的错误度量的实现,并且与大多数错误度量一样,它是一个正数。在这种情况下,它是一个通常被最小化的指标(例如作为回归的均方误差),与最大化的准确性等指标形成对比。

因此,neg_log_loss 是创建效用值的技术细节,它允许优化函数和 类 sklearn 以最大化此效用,而无需更改每个指标的函数行为(例如包括例如名为 cross_val_scoreGridSearchCVRandomizedSearchCV 等)。