在tf.slim中,我是否需要将依赖添加到loss中

In tf.slim, whether I need to add the dependency to the loss

在tf.slim,我用过batch_norm。

我的问题是:我是否需要明确地将依赖项添加到损失中?

我想,slim知道我用过batch_norm,是否已经自动添加了loss的依赖?我很困惑。

是的,你需要。

你能按照说明做吗here:

注意:训练时,需要更新moving_mean和moving_variance。默认情况下,更新操作放在 tf.GraphKeys.UPDATE_OPS 中,因此需要将它们添加为 train_op 的依赖项。例如:

update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
  train_op = optimizer.minimize(loss)