Tensorflow:S 形交叉熵损失的输出概率
Tensorflow: Output probabilities from sigmoid cross entropy loss
我有一个 CNN 用于多标签 class化问题,我使用 tf.nn.sigmoid_cross_entropy_with_logits
作为损失函数。
从 cross entropy equation 我希望输出是每个 class 的概率,但我得到的是 (-∞, ∞) 中的浮点数。
经过一些谷歌搜索后,我发现由于一些内部规范化操作,每一行 logits 在被输入方程之前都可以解释为概率。
我对如何实际输出后验概率而不是浮点数来绘制 ROC 感到困惑。
tf.sigmoid(logits)
给出了概率。
您可以在 tf.nn.sigmoid_cross_entropy_with_logits 的文档中看到 tf.sigmoid
是将 logits 归一化为概率的函数。
我有一个 CNN 用于多标签 class化问题,我使用 tf.nn.sigmoid_cross_entropy_with_logits
作为损失函数。
从 cross entropy equation 我希望输出是每个 class 的概率,但我得到的是 (-∞, ∞) 中的浮点数。
经过一些谷歌搜索后,我发现由于一些内部规范化操作,每一行 logits 在被输入方程之前都可以解释为概率。
我对如何实际输出后验概率而不是浮点数来绘制 ROC 感到困惑。
tf.sigmoid(logits)
给出了概率。
您可以在 tf.nn.sigmoid_cross_entropy_with_logits 的文档中看到 tf.sigmoid
是将 logits 归一化为概率的函数。