为什么 TensorFlow 的文档将 softmax 的输入称为 "logits"?
Why does TensorFlow's documentation call a softmax's input "logits"?
TensorFlow calls softmax 和 logit 的每个输入。他们继续将 softmax 的 inputs/logits 定义为:"Unscaled log probabilities."
Wikipedia 和其他消息来源说,logit 是赔率的对数,是 sigmoid/logistic 函数的反函数。即,如果 sigmoid(x) = p(x),则 logit( p(x) ) = log( p(x) / (1-p(x)) ) = x。
TensorFlow 调用 softmax 的输入是否有数学或传统原因 "logits"?他们不应该被称为"unscaled log probabilities"吗?
也许 TensorFlow 只是想为二元逻辑回归(使用术语 logit 有意义)和分类逻辑回归保留相同的变量名...
这个问题是 ,但似乎没有人对使用 "logit" 这个词表示 "unscaled log probability".
感到困扰
Logit 现在在 ML 社区中用于任何非归一化概率分布(基本上是通过无参数变换映射到概率分布的任何东西,例如二进制变量的 sigmoid 函数或多项式变量的 softmax)。它不是一个严格的数学术语,但获得了足够的知名度以包含在 TF 文档中。
TensorFlow calls softmax 和 logit 的每个输入。他们继续将 softmax 的 inputs/logits 定义为:"Unscaled log probabilities."
Wikipedia 和其他消息来源说,logit 是赔率的对数,是 sigmoid/logistic 函数的反函数。即,如果 sigmoid(x) = p(x),则 logit( p(x) ) = log( p(x) / (1-p(x)) ) = x。
TensorFlow 调用 softmax 的输入是否有数学或传统原因 "logits"?他们不应该被称为"unscaled log probabilities"吗?
也许 TensorFlow 只是想为二元逻辑回归(使用术语 logit 有意义)和分类逻辑回归保留相同的变量名...
这个问题是
Logit 现在在 ML 社区中用于任何非归一化概率分布(基本上是通过无参数变换映射到概率分布的任何东西,例如二进制变量的 sigmoid 函数或多项式变量的 softmax)。它不是一个严格的数学术语,但获得了足够的知名度以包含在 TF 文档中。