Keras 中二进制交叉熵损失值的含义?
Implication of binary cross entropy loss value in Keras?
在训练过程中,我看到二元交叉熵损失是正向无界的。
那么我们是否可以仅通过查看损失值来解释任何事情,例如,如果二元交叉熵损失为 0.5,这是否意味着模型只能在一半的时间内猜出正确的结果?
看到的损失是损失的平均值。当你有一个输出 sigmoid,批量大小为 1 时,在我看来,这是正确的。具有更大的批量大小,使这更复杂。一个例子:
batch_size=4
error_batch_1 = 0.4 #close
error_batch_2 = 0.3 #close
error_batch_3 = 0.3 #close
error_batch_4 = 1 #far away
计算平均值后,我们得到:2/4 = 0.5
当您以这种方式查看错误时,您会认为一半的预测是正确的,但实际上,4 个预测中有 3 个是正确的(这意味着结果四舍五入为 1 或 0)
在训练过程中,我看到二元交叉熵损失是正向无界的。 那么我们是否可以仅通过查看损失值来解释任何事情,例如,如果二元交叉熵损失为 0.5,这是否意味着模型只能在一半的时间内猜出正确的结果?
看到的损失是损失的平均值。当你有一个输出 sigmoid,批量大小为 1 时,在我看来,这是正确的。具有更大的批量大小,使这更复杂。一个例子:
batch_size=4
error_batch_1 = 0.4 #close
error_batch_2 = 0.3 #close
error_batch_3 = 0.3 #close
error_batch_4 = 1 #far away
计算平均值后,我们得到:2/4 = 0.5
当您以这种方式查看错误时,您会认为一半的预测是正确的,但实际上,4 个预测中有 3 个是正确的(这意味着结果四舍五入为 1 或 0)