PyTorch 中的自定义损失函数,它使用 DNN 输出和附加变量
Customized loss function in PyTorch which uses DNN outputs and additional variables
(如果我的英语不好,请见谅)
如果函数只需要 DNN 输出向量(预测)和 DNN 输出向量(真值),我可以在 PyTorch 中创建自己的损失函数。
我想使用额外的变量来计算损失。
我的训练和测试数据如下;
DNN 输入:
Data_A
-> 处理 1 -> Data_X
DNN 输出:
Data_A
-> 处理 1 -> Data_X
Data_B
-> 处理 1 -> Data_P
Data_X
, Data_P
-> 处理 2 -> Data_Y
我把Data_X
和Data_Y
分成训练数据和测试数据。
x_train, x_test, y_train, y_test = train_test_split(Data_X,Data_Y,test_size=0.2, random_state=0)
我想用Data_A
、Data_B
、Data_Y(predicted)
、Data_Y(ground truth)
来计算损失。
我看到很多自定义损失函数的例子,它们只使用 Data_Y(predicted)
和 Data_Y(ground truth)
。我以前可以使用这样一个定制的损失函数。
但是,当我想使用另一个附加变量时,我不知道该怎么做。
有什么好办法吗?感谢您的帮助!
您对损失函数的结构没有限制(只要梯度有意义)。
例如,您可以:
class MyLossLayer(nn.Module):
def __init__(self):
super(MyLossLayer, self).__init__()
def forward(self, pred_a, pred_b, gt_target):
# I'm just guessing here - do whatever you want as long as you do not screw the gradients.
loss = pred_a * (pred_b - target)
return loss.mean()
(如果我的英语不好,请见谅)
如果函数只需要 DNN 输出向量(预测)和 DNN 输出向量(真值),我可以在 PyTorch 中创建自己的损失函数。
我想使用额外的变量来计算损失。
我的训练和测试数据如下;
DNN 输入:
Data_A
-> 处理 1 ->Data_X
DNN 输出:
Data_A
-> 处理 1 ->Data_X
Data_B
-> 处理 1 ->Data_P
Data_X
,Data_P
-> 处理 2 ->Data_Y
我把Data_X
和Data_Y
分成训练数据和测试数据。
x_train, x_test, y_train, y_test = train_test_split(Data_X,Data_Y,test_size=0.2, random_state=0)
我想用Data_A
、Data_B
、Data_Y(predicted)
、Data_Y(ground truth)
来计算损失。
我看到很多自定义损失函数的例子,它们只使用 Data_Y(predicted)
和 Data_Y(ground truth)
。我以前可以使用这样一个定制的损失函数。
但是,当我想使用另一个附加变量时,我不知道该怎么做。
有什么好办法吗?感谢您的帮助!
您对损失函数的结构没有限制(只要梯度有意义)。
例如,您可以:
class MyLossLayer(nn.Module):
def __init__(self):
super(MyLossLayer, self).__init__()
def forward(self, pred_a, pred_b, gt_target):
# I'm just guessing here - do whatever you want as long as you do not screw the gradients.
loss = pred_a * (pred_b - target)
return loss.mean()