有没有办法使用 MLP/any 其他算法,这些算法将 objective 和误差函数作为输入,returns 最佳参数?
Is there a way to use MLP/any other Algorithms which take the objective and error functions as input and returns the optimum parameters?
我在想 python 中是否有 MLP 的预构建实现,可以将我的 objective 函数、损失函数和容差作为输入,并 return 最优我的函数的参数。我已经通过 Tensorflow 和 scikit-learn 中的 MLP,但似乎没有这种东西。欢迎提出任何建议。
提前致谢
只要您的 objective 函数是可微分的,这实际上就是神经网络的设计目的。您可以将 TF 中的任何函数编写为 objective,然后使用 SGD 训练您的 MLP。这是了解事物如何工作或接受“预构建”不会像称为“解决我的问题”的功能那样容易的问题,它需要更多的命令,但最终你要求的是几乎任何 NN 实现,让它成为 TF、Keras 等。
例如,您可以使用 Keras 并实现自定义损失
def my_loss_fn(y_true, y_pred):
squared_difference = tf.square(y_true - y_pred)
return tf.reduce_mean(squared_difference, axis=-1) # Note the `axis=-1`
model.compile(optimizer='adam', loss=my_loss_fn)
我在想 python 中是否有 MLP 的预构建实现,可以将我的 objective 函数、损失函数和容差作为输入,并 return 最优我的函数的参数。我已经通过 Tensorflow 和 scikit-learn 中的 MLP,但似乎没有这种东西。欢迎提出任何建议。
提前致谢
只要您的 objective 函数是可微分的,这实际上就是神经网络的设计目的。您可以将 TF 中的任何函数编写为 objective,然后使用 SGD 训练您的 MLP。这是了解事物如何工作或接受“预构建”不会像称为“解决我的问题”的功能那样容易的问题,它需要更多的命令,但最终你要求的是几乎任何 NN 实现,让它成为 TF、Keras 等。
例如,您可以使用 Keras 并实现自定义损失
def my_loss_fn(y_true, y_pred):
squared_difference = tf.square(y_true - y_pred)
return tf.reduce_mean(squared_difference, axis=-1) # Note the `axis=-1`
model.compile(optimizer='adam', loss=my_loss_fn)