Tensorflow 中的 Softmax 交叉熵实现 Github 源代码
Softmax Cross Entropy implementation in Tensorflow Github Source Code
我正在尝试在 python 中实现 Softmax 交叉熵损失。因此,我在 GitHub Tensorflow 存储库中查看了 Softmax 交叉熵损失的实现。我试图理解它,但我 运行 进入了三个函数的循环,我不明白函数中的哪一行代码正在计算损失?
函数 softmax_cross_entropy_with_logits_v2(labels, logits, axis=-1, name=None)
returns 函数 softmax_cross_entropy_with_logits_v2_helper(labels=labels, logits=logits, axis=axis, name=name)
,进而 returns softmax_cross_entropy_with_logits(precise_logits, labels, name=name)
.
现在函数 softmax_cross_entropy_with_logits(precise_logits, labels, name=name)
returns 函数 softmax_cross_entropy_with_logits_v2(labels, logits, axis=-1, name=None)
.
这让我陷入了一个函数循环,而不知道用于计算 Softmax 函数的 cost
的代码在哪里。谁能指出在 Tensorflow GitHub 存储库中实现 Softmax 交叉熵的代码的位置?
我引用的 GitHub 存储库的 link 是 here。包含了以上三个函数的定义。
万一cost
的代码需要很多函数,理解起来很麻烦,你能不能也解释一下代码行?谢谢。
我正在尝试在 python 中实现 Softmax 交叉熵损失。因此,我在 GitHub Tensorflow 存储库中查看了 Softmax 交叉熵损失的实现。我试图理解它,但我 运行 进入了三个函数的循环,我不明白函数中的哪一行代码正在计算损失?
函数 softmax_cross_entropy_with_logits_v2(labels, logits, axis=-1, name=None)
returns 函数 softmax_cross_entropy_with_logits_v2_helper(labels=labels, logits=logits, axis=axis, name=name)
,进而 returns softmax_cross_entropy_with_logits(precise_logits, labels, name=name)
.
现在函数 softmax_cross_entropy_with_logits(precise_logits, labels, name=name)
returns 函数 softmax_cross_entropy_with_logits_v2(labels, logits, axis=-1, name=None)
.
这让我陷入了一个函数循环,而不知道用于计算 Softmax 函数的 cost
的代码在哪里。谁能指出在 Tensorflow GitHub 存储库中实现 Softmax 交叉熵的代码的位置?
我引用的 GitHub 存储库的 link 是 here。包含了以上三个函数的定义。
万一cost
的代码需要很多函数,理解起来很麻烦,你能不能也解释一下代码行?谢谢。