为什么 tensorflow 对 softmax 函数使用 'dim' 参数?
Why tensorflow use 'dim' parameter for softmax function?
为什么tensorflow对softmax函数使用'dim'参数?我们可以使用什么样的张量作为输入?
tf.nn.softmax
在输入中接受一个通用的非空张量。
您可以决定在每个维度上应用 softmax。
通常,softmax 应用于输入张量的最后一个维度(这是默认行为)。这是因为通常 softmax 应用于神经网络输出,通常是形状为 [batch_size, num_classes]
.
的张量
但是,您可以决定将 softmax 应用于形状为 [batch_size, num_classes, 2, 1]
的张量,并仅在张量的第二个维度上计算 softmax:tf.nn.softmax(tensor, axis=1)
为什么tensorflow对softmax函数使用'dim'参数?我们可以使用什么样的张量作为输入?
tf.nn.softmax
在输入中接受一个通用的非空张量。
您可以决定在每个维度上应用 softmax。
通常,softmax 应用于输入张量的最后一个维度(这是默认行为)。这是因为通常 softmax 应用于神经网络输出,通常是形状为 [batch_size, num_classes]
.
但是,您可以决定将 softmax 应用于形状为 [batch_size, num_classes, 2, 1]
的张量,并仅在张量的第二个维度上计算 softmax:tf.nn.softmax(tensor, axis=1)