TensorFlow API 中的正则化损失是什么?它不符合任何其他损失函数
What Is Regularisation Loss in TensorFlow API? It Doesn't Align With Any Other Loss Function
我正在使用 V2 模型动物园训练 EfficientDet V7 模型,并在 TensorBoard 中有以下输出:
这很好,您可以看到我的分类和本地化损失正在下降到较低水平(如果这是一个单独的问题,我稍后会担心过拟合)——但正则化损失仍然很高,这使我的总损失处于相当高的水平。我似乎无法 a) 找到一个明确的解释(对于新手)关于我正在看的正则化损失(它在这种情况下代表什么)和 b)关于为什么它可能如此之高的建议。
通常,正则化损失类似于根据神经网络的 权重 计算的 L2 损失。这种损失的最小化往往会缩小权重的值。
这是一种正则化(因此得名)技术,可以帮助解决过度拟合等问题(如果您想了解更多,也许 this article 可以提供帮助)。
底线:您无需为此做任何事情。
我正在使用 V2 模型动物园训练 EfficientDet V7 模型,并在 TensorBoard 中有以下输出:
这很好,您可以看到我的分类和本地化损失正在下降到较低水平(如果这是一个单独的问题,我稍后会担心过拟合)——但正则化损失仍然很高,这使我的总损失处于相当高的水平。我似乎无法 a) 找到一个明确的解释(对于新手)关于我正在看的正则化损失(它在这种情况下代表什么)和 b)关于为什么它可能如此之高的建议。
通常,正则化损失类似于根据神经网络的 权重 计算的 L2 损失。这种损失的最小化往往会缩小权重的值。 这是一种正则化(因此得名)技术,可以帮助解决过度拟合等问题(如果您想了解更多,也许 this article 可以提供帮助)。
底线:您无需为此做任何事情。