Keras 自定义损失函数
Keras custom loss-function
我想实现以下自定义损失函数,参数 x
作为最后一层的输出。到目前为止,我将此功能实现为 Lambda
层,再加上 keras mae
损失,但我不想再那样了
def GMM_UNC2(self, x):
tmp = self.create_mr(x) # get mr series
mr = k.sum(tmp, axis=1) # sum over time
tmp = k.square((1/self.T_i) * mr)
tmp = k.dot(tmp, k.transpose(self.T_i))
tmp = (1/(self.T * self.N)) * tmp
f = self.create_factor(x) # get factor
std = k.std(f)
mu = k.mean(f)
tmp = tmp + std/mu
def loss(y_true, y_pred=tmp):
return k.abs(y_true-y_pred)
return loss
self.y_true = np.zeros((1,1))
self.sdf_net = Model(inputs=[self.in_ma, self.in_mi, self.in_re, self.in_si], outputs=w)
self.sdf_net.compile(optimizer=self.optimizer, loss=self.GMM_UNC2(w))
self.sdf_net.fit([self.macro, self.micro, self.R, self.R_sign], self.y_true, epochs=epochs, verbose=1)
代码实际运行但它实际上并没有使用 tmp
作为损失的输入(我将它乘以一些数字,但损失保持不变)
我做错了什么?
如果您想将 GMM_UNC2
函数应用于预测,或者仅应用一次以建立损失,您的问题并不完全清楚。如果它是第一个选项,那么所有代码都应该在损失内并将其应用于 y_pred
,如
def GMM_UNC2(self):
def loss(y_true, y_pred):
tmp = self.create_mr(y_pred) # get mr series
mr = k.sum(tmp, axis=1) # sum over time
tmp = k.square((1/self.T_i) * mr)
tmp = k.dot(tmp, k.transpose(self.T_i))
tmp = (1/(self.T * self.N)) * tmp
f = self.create_factor(x) # get factor
std = k.std(f)
mu = k.mean(f)
tmp = tmp + std/mu
return k.abs(y_true-y_pred)
return loss
如果是第二个选项,一般来说,在Python函数定义中传递对象作为默认值不是一个好主意,因为它可以在函数定义中改变。此外,您假设损失的第二个参数有一个名称 y_pred
,但在调用时,它没有名称,作为位置参数。总之,你可以尝试在损失中使用显式比较,比如
def loss(y_true, y_pred):
if y_pred is None:
y_pred = tmp
return k.abs(y_true - y_pred)
如果喜欢忽略预测,强行使用tmp
,那么可以忽略loss的y_pred
参数,只使用tmp
,喜欢[=19] =]
def loss(y_true, _):
return k.abs(y_true - tmp)
我想实现以下自定义损失函数,参数 x
作为最后一层的输出。到目前为止,我将此功能实现为 Lambda
层,再加上 keras mae
损失,但我不想再那样了
def GMM_UNC2(self, x):
tmp = self.create_mr(x) # get mr series
mr = k.sum(tmp, axis=1) # sum over time
tmp = k.square((1/self.T_i) * mr)
tmp = k.dot(tmp, k.transpose(self.T_i))
tmp = (1/(self.T * self.N)) * tmp
f = self.create_factor(x) # get factor
std = k.std(f)
mu = k.mean(f)
tmp = tmp + std/mu
def loss(y_true, y_pred=tmp):
return k.abs(y_true-y_pred)
return loss
self.y_true = np.zeros((1,1))
self.sdf_net = Model(inputs=[self.in_ma, self.in_mi, self.in_re, self.in_si], outputs=w)
self.sdf_net.compile(optimizer=self.optimizer, loss=self.GMM_UNC2(w))
self.sdf_net.fit([self.macro, self.micro, self.R, self.R_sign], self.y_true, epochs=epochs, verbose=1)
代码实际运行但它实际上并没有使用 tmp
作为损失的输入(我将它乘以一些数字,但损失保持不变)
我做错了什么?
如果您想将 GMM_UNC2
函数应用于预测,或者仅应用一次以建立损失,您的问题并不完全清楚。如果它是第一个选项,那么所有代码都应该在损失内并将其应用于 y_pred
,如
def GMM_UNC2(self):
def loss(y_true, y_pred):
tmp = self.create_mr(y_pred) # get mr series
mr = k.sum(tmp, axis=1) # sum over time
tmp = k.square((1/self.T_i) * mr)
tmp = k.dot(tmp, k.transpose(self.T_i))
tmp = (1/(self.T * self.N)) * tmp
f = self.create_factor(x) # get factor
std = k.std(f)
mu = k.mean(f)
tmp = tmp + std/mu
return k.abs(y_true-y_pred)
return loss
如果是第二个选项,一般来说,在Python函数定义中传递对象作为默认值不是一个好主意,因为它可以在函数定义中改变。此外,您假设损失的第二个参数有一个名称 y_pred
,但在调用时,它没有名称,作为位置参数。总之,你可以尝试在损失中使用显式比较,比如
def loss(y_true, y_pred):
if y_pred is None:
y_pred = tmp
return k.abs(y_true - y_pred)
如果喜欢忽略预测,强行使用tmp
,那么可以忽略loss的y_pred
参数,只使用tmp
,喜欢[=19] =]
def loss(y_true, _):
return k.abs(y_true - tmp)