tensorflow.train.AdamOptimizer 中的损失是否必须为正数?
Does the loss in tensorflow.train.AdamOptimizer have to be positive?
我的问题很简单:我的目的是最小化 loss=a-b,其中 loss 理想情况下是尽可能大的负数,即。 b 比 a 大很多。
因为在所有例子中,损失都是正的,我想问一下我是否可以将我的损失输入compute_gradients并得到想要的结果。
干杯
是的,你可以。只要是最小化而不是最大化,一切都应该和例子中的完全一样。
我的问题很简单:我的目的是最小化 loss=a-b,其中 loss 理想情况下是尽可能大的负数,即。 b 比 a 大很多。
因为在所有例子中,损失都是正的,我想问一下我是否可以将我的损失输入compute_gradients并得到想要的结果。 干杯
是的,你可以。只要是最小化而不是最大化,一切都应该和例子中的完全一样。