交叉熵损失对 F 分数的影响
Cross-entropy loss influence over F-score
我正在训练 FCN(全卷积网络)并使用 "Sigmoid Cross Entropy" 作为损失函数。
我的测量值是 F-measure 和 MAE。
Train/Dev Loss w.r.t #iteration 图表如下所示:
尽管在#Iter=2200 之后 Dev loss 略有增加,但我对 Dev set 的测量已经提高到接近 #iter = 10000。我想知道在机器学习中是否有可能?如果改进了 F-measure,是否也应该减少损失?你怎么解释?
我们将不胜感激。
简答,是有可能。
我将如何解释它是通过推理交叉熵损失及其与指标的不同之处。分类的损失函数,一般来说,用来优化依赖于概率(0.1/0.9)的模型,而度量通常使用预测的标签。 (0/1)
- 假设在模型概率假设中具有强置信度(接近0或1),错误的预测将大大增加损失 并且 F-measure 有小幅下降。
- 同样,在相反的情况下,低置信度(例如 0.49/0.51)的模型会对损失函数产生很小的影响(从数字的角度来看)和对指标的更大影响。
绘制预测的分布图将有助于证实这一假设。
我正在训练 FCN(全卷积网络)并使用 "Sigmoid Cross Entropy" 作为损失函数。
我的测量值是 F-measure 和 MAE。
Train/Dev Loss w.r.t #iteration 图表如下所示:
我们将不胜感激。
简答,是有可能。
我将如何解释它是通过推理交叉熵损失及其与指标的不同之处。分类的损失函数,一般来说,用来优化依赖于概率(0.1/0.9)的模型,而度量通常使用预测的标签。 (0/1)
- 假设在模型概率假设中具有强置信度(接近0或1),错误的预测将大大增加损失 并且 F-measure 有小幅下降。
- 同样,在相反的情况下,低置信度(例如 0.49/0.51)的模型会对损失函数产生很小的影响(从数字的角度来看)和对指标的更大影响。
绘制预测的分布图将有助于证实这一假设。