多个正分类的 Tensorflow 损失计算
Tensorflow loss calculation for multiple positive classifications
我的标签是这样的
label = [0, 1, 0, 0, 1, 0]
意味着 类 1, 4
出现在匹配的样本输入中。
- 如何为这样的标签创建单热编码标签?
- 哪种损失函数更适合这种情况(Sigmoid 交叉熵、softmax 交叉熵或稀疏 softmax 交叉熵)?
没有充分的理由创建一个 one-hot
编码版本,如果你想保持输出标签大小完全相同,即 6
在你的情况下,你不能做它的 one-hot
编码版本。
要完成multi-label classification
的地方,你不能(更恰当地说不应该)使用softmax
作为激活。 Softmax
适用于只有一个输出可以是真值的情况。因此,在您的情况下,最好使用 sigmoid cross-entropy
.
我的标签是这样的
label = [0, 1, 0, 0, 1, 0]
意味着 类 1, 4
出现在匹配的样本输入中。
- 如何为这样的标签创建单热编码标签?
- 哪种损失函数更适合这种情况(Sigmoid 交叉熵、softmax 交叉熵或稀疏 softmax 交叉熵)?
没有充分的理由创建一个
one-hot
编码版本,如果你想保持输出标签大小完全相同,即6
在你的情况下,你不能做它的one-hot
编码版本。要完成
multi-label classification
的地方,你不能(更恰当地说不应该)使用softmax
作为激活。Softmax
适用于只有一个输出可以是真值的情况。因此,在您的情况下,最好使用sigmoid cross-entropy
.