PyTorch 中的自定义损失函数,它使用 DNN 输出和附加变量

Customized loss function in PyTorch which uses DNN outputs and additional variables

(如果我的英语不好,请见谅)

如果函数只需要 DNN 输出向量(预测)和 DNN 输出向量(真值),我可以在 PyTorch 中创建自己的损失函数。

我想使用额外的变量来计算损失。

我的训练和测试数据如下;

DNN 输入:

  1. Data_A -> 处理 1 -> Data_X

DNN 输出:

  1. Data_A -> 处理 1 -> Data_X
  2. Data_B -> 处理 1 -> Data_P
  3. Data_X , Data_P -> 处理 2 -> Data_Y

我把Data_XData_Y分成训练数据和测试数据。 x_train, x_test, y_train, y_test = train_test_split(Data_X,Data_Y,test_size=0.2, random_state=0)

我想用Data_AData_BData_Y(predicted)Data_Y(ground truth)来计算损失。 我看到很多自定义损失函数的例子,它们只使用 Data_Y(predicted)Data_Y(ground truth)。我以前可以使用这样一个定制的损失函数。 但是,当我想使用另一个附加变量时,我不知道该怎么做。 有什么好办法吗?感谢您的帮助!

您对损失函数的结构没有限制(只要梯度有意义)。
例如,您可以:

class MyLossLayer(nn.Module):
  def __init__(self):
    super(MyLossLayer, self).__init__()

  def forward(self, pred_a, pred_b, gt_target):
    # I'm just guessing here - do whatever you want as long as you do not screw the gradients.
    loss = pred_a * (pred_b - target)
    return loss.mean()