多个正分类的 Tensorflow 损失计算

Tensorflow loss calculation for multiple positive classifications

我的标签是这样的

label = [0, 1, 0, 0, 1, 0]

意味着 类 1, 4 出现在匹配的样本输入中。

  1. 如何为这样的标签创建单热编码标签?
  2. 哪种损失函数更适合这种情况(Sigmoid 交叉熵、softmax 交叉熵或稀疏 softmax 交叉熵)?
  1. 没有充分的理由创建一个 one-hot 编码版本,如果你想保持输出标签大小完全相同,即 6 在你的情况下,你不能做它的 one-hot 编码版本。

  2. 要完成multi-label classification的地方,你不能(更恰当地说不应该)使用softmax作为激活。 Softmax 适用于只有一个输出可以是真值的情况。因此,在您的情况下,最好使用 sigmoid cross-entropy.