使用 2 组 and/or 2 diff 损失函数进行正确训练是否正常?
Is that normal to train properly with 2 sets and/or 2 diff losses function?
我有 2 个训练集:一个有标签,一个没有标签。
训练时,我同时从标记集中加载一批,然后使用第一个损失函数进行计算;然后,来自未标记集的一批,使用另一个函数进行计算。最后我将它们相加(2 次损失)和 loss.backward()
.
这种方式行得通吗?这在我看来并不常见,所以只要问问引擎是否知道如何正确地反向传播(没错)?
谢谢。
我从 pytorch 论坛讨论中得到了答案。 pytorch 中的 Autograd 引擎可以很好且正确地使用 2 个或更多不同的损失函数,因此我们无需担心其准确性。
谢谢
我有 2 个训练集:一个有标签,一个没有标签。
训练时,我同时从标记集中加载一批,然后使用第一个损失函数进行计算;然后,来自未标记集的一批,使用另一个函数进行计算。最后我将它们相加(2 次损失)和 loss.backward()
.
这种方式行得通吗?这在我看来并不常见,所以只要问问引擎是否知道如何正确地反向传播(没错)? 谢谢。
我从 pytorch 论坛讨论中得到了答案。 pytorch 中的 Autograd 引擎可以很好且正确地使用 2 个或更多不同的损失函数,因此我们无需担心其准确性。 谢谢