在tf.slim中,我是否需要将依赖添加到loss中
In tf.slim, whether I need to add the dependency to the loss
在tf.slim,我用过batch_norm。
我的问题是:我是否需要明确地将依赖项添加到损失中?
我想,slim知道我用过batch_norm,是否已经自动添加了loss的依赖?我很困惑。
是的,你需要。
你能按照说明做吗here:
注意:训练时,需要更新moving_mean和moving_variance。默认情况下,更新操作放在 tf.GraphKeys.UPDATE_OPS
中,因此需要将它们添加为 train_op
的依赖项。例如:
update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
train_op = optimizer.minimize(loss)
在tf.slim,我用过batch_norm。
我的问题是:我是否需要明确地将依赖项添加到损失中?
我想,slim知道我用过batch_norm,是否已经自动添加了loss的依赖?我很困惑。
是的,你需要。
你能按照说明做吗here:
注意:训练时,需要更新moving_mean和moving_variance。默认情况下,更新操作放在 tf.GraphKeys.UPDATE_OPS
中,因此需要将它们添加为 train_op
的依赖项。例如:
update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
train_op = optimizer.minimize(loss)