为什么 TensorFlow 的文档将 softmax 的输入称为 "logits"?

Why does TensorFlow's documentation call a softmax's input "logits"?

TensorFlow calls softmax 和 logit 的每个输入。他们继续将 softmax 的 inputs/logits 定义为:"Unscaled log probabilities."

Wikipedia 和其他消息来源说,logit 是赔率的对数,是 sigmoid/logistic 函数的反函数。即,如果 sigmoid(x) = p(x),则 logit( p(x) ) = log( p(x) / (1-p(x)) ) = x。

TensorFlow 调用 softmax 的输入是否有数学或传统原因 "logits"?他们不应该被称为"unscaled log probabilities"吗?

也许 TensorFlow 只是想为二元逻辑回归(使用术语 logit 有意义)和分类逻辑回归保留相同的变量名...

这个问题是 ,但似乎没有人对使用 "logit" 这个词表示 "unscaled log probability".

感到困扰

Logit 现在在 ML 社区中用于任何非归一化概率分布(基本上是通过无参数变换映射到概率分布的任何东西,例如二进制变量的 sigmoid 函数或多项式变量的 softmax)。它不是一个严格的数学术语,但获得了足够的知名度以包含在 TF 文档中。