交叉熵损失对 F 分数的影响

Cross-entropy loss influence over F-score

我正在训练 FCN(全卷积网络)并使用 "Sigmoid Cross Entropy" 作为损失函数。 我的测量值是 F-measure 和 MAE。 Train/Dev Loss w.r.t #iteration 图表如下所示: 尽管在#Iter=2200 之后 Dev loss 略有增加,但我对 Dev set 的测量已经提高到接近 #iter = 10000。我想知道在机器学习中是否有可能?如果改进了 F-measure,是否也应该减少损失?你怎么解释?

我们将不胜感激。

简答,有可能。

我将如何解释它是通过推理交叉熵损失及其与指标的不同之处。分类的损失函数,一般来说,用来优化依赖于概率(0.1/0.9)的模型,而度量通常使用预测的标签。 (0/1)

  • 假设在模型概率假设中具有强置信度(接近0或1),错误的预测将大大增加损失 并且 F-measure 有小幅下降。
  • 同样,在相反的情况下,低置信度(例如 0.49/0.51)的模型会对损失函数产生很小的影响(从数字的角度来看)和对指标的更大影响

绘制预测的分布图将有助于证实这一假设。