如何在 Tensorflow 中设置分层学习率?
How to set layer-wise learning rate in Tensorflow?
我想知道是否有一种方法可以像 Caffe 那样对不同的层使用不同的学习率。我正在尝试修改预训练模型并将其用于其他任务。我想要的是加快新添加层的训练,并使训练后的层保持低学习率,以防止它们被扭曲。例如,我有一个 5-conv-layer 预训练模型。现在我添加一个新的转换层并对其进行微调。前 5 层的学习率为 0.00001,最后一层为 0.001。知道如何实现吗?
使用 2 个优化器可以很容易地实现:
var_list1 = [variables from first 5 layers]
var_list2 = [the rest of variables]
train_op1 = GradientDescentOptimizer(0.00001).minimize(loss, var_list=var_list1)
train_op2 = GradientDescentOptimizer(0.0001).minimize(loss, var_list=var_list2)
train_op = tf.group(train_op1, train_op2)
此实现的一个缺点是它在优化器内部计算了两次 tf.gradients(.),因此就执行速度而言它可能不是最佳的。这可以通过显式调用 tf.gradients(.)、将列表分成 2 并将相应的梯度传递给两个优化器来缓解。
相关问题:
编辑:添加了更高效但更长的实现:
var_list1 = [variables from first 5 layers]
var_list2 = [the rest of variables]
opt1 = tf.train.GradientDescentOptimizer(0.00001)
opt2 = tf.train.GradientDescentOptimizer(0.0001)
grads = tf.gradients(loss, var_list1 + var_list2)
grads1 = grads[:len(var_list1)]
grads2 = grads[len(var_list1):]
tran_op1 = opt1.apply_gradients(zip(grads1, var_list1))
train_op2 = opt2.apply_gradients(zip(grads2, var_list2))
train_op = tf.group(train_op1, train_op2)
您可以使用 tf.trainable_variables()
获取所有训练变量并从中决定 select。
不同之处在于,在第一个实现中 tf.gradients(.)
在优化器中被调用了两次。这可能会导致执行一些冗余操作(例如,第一层上的梯度可以为后续层的梯度重用一些计算)。
1 月 22 日更新:下面的配方只是 GradientDescentOptimizer
的一个好主意,其他保持 运行 平均值的优化器将在参数更新,所以下面的配方不会影响等式的那部分
除了 Rafal 的方法之外,您还可以使用 Optimizer
的 compute_gradients
、apply_gradients
接口。例如,这是一个玩具网络,我在第二个参数
中使用了 2 倍的学习率
x = tf.Variable(tf.ones([]))
y = tf.Variable(tf.zeros([]))
loss = tf.square(x-y)
global_step = tf.Variable(0, name="global_step", trainable=False)
opt = tf.GradientDescentOptimizer(learning_rate=0.1)
grads_and_vars = opt.compute_gradients(loss, [x, y])
ygrad, _ = grads_and_vars[1]
train_op = opt.apply_gradients([grads_and_vars[0], (ygrad*2, y)], global_step=global_step)
init_op = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init_op)
for i in range(5):
sess.run([train_op, loss, global_step])
print sess.run([x, y])
你应该看看
[0.80000001, 0.40000001]
[0.72000003, 0.56]
[0.68800002, 0.62400001]
[0.67520005, 0.64960003]
[0.67008007, 0.65984005]
为每个变量收集学习率乘数,例如:
self.lr_multipliers[var.op.name] = lr_mult
然后在应用渐变之前应用它们,例如:
def _train_op(self):
tf.scalar_summary('learning_rate', self._lr_placeholder)
opt = tf.train.GradientDescentOptimizer(self._lr_placeholder)
grads_and_vars = opt.compute_gradients(self._loss)
grads_and_vars_mult = []
for grad, var in grads_and_vars:
grad *= self._network.lr_multipliers[var.op.name]
grads_and_vars_mult.append((grad, var))
tf.histogram_summary('variables/' + var.op.name, var)
tf.histogram_summary('gradients/' + var.op.name, grad)
return opt.apply_gradients(grads_and_vars_mult)
您可以找到整个示例 here。
The first 5 layers would have learning rate of 0.00001 and the last one would have 0.001. Any idea how to achieve this?
使用 tf.stop_gradient 有一种简单的方法可以做到这一点。
这是一个 3 层的示例:
x = layer1(input)
x = layer2(x)
output = layer3(x)
您可以按 1/100 的比例缩小前两层的渐变:
x = layer1(input)
x = layer2(x)
x = 1/100*x + (1-1/100)*tf.stop_gradient(x)
output = layer3(x)
在layer2上,"flow"分为两个分支:一个贡献为1/100的分支定期计算其梯度,但梯度幅度按1/100的比例缩小,另一个由于 tf.stop_gradient 运算符,branch 提供剩余的 "flow" 而不会影响梯度。因此,如果您在模型优化器上使用 0.001 的学习率,则前两层实际上将具有 0.00001 的学习率。
Tensorflow 1.7 引入了 tf.custom_gradient
,极大地简化了学习率乘数的设置,其方式现在与任何优化器兼容,包括那些累积梯度统计信息的优化器。例如,
import tensorflow as tf
def lr_mult(alpha):
@tf.custom_gradient
def _lr_mult(x):
def grad(dy):
return dy * alpha * tf.ones_like(x)
return x, grad
return _lr_mult
x0 = tf.Variable(1.)
x1 = tf.Variable(1.)
loss = tf.square(x0) + tf.square(lr_mult(0.1)(x1))
step = tf.train.GradientDescentOptimizer(learning_rate=0.1).minimize(loss)
sess = tf.InteractiveSession()
tf.global_variables_initializer().run()
tf.local_variables_initializer().run()
for _ in range(5):
sess.run([step])
print(sess.run([x0, x1, loss]))
Sergey Demyanov 答案的细微变化,您只需指定要更改的学习率
from collections import defaultdict
self.learning_rates = defaultdict(lambda: 1.0)
...
x = tf.layers.Dense(3)(x)
self.learning_rates[x.op.name] = 2.0
...
optimizer = tf.train.MomentumOptimizer(learning_rate=1e-3, momentum=0.9)
grads_and_vars = optimizer.compute_gradients(loss)
grads_and_vars_mult = []
for grad, var in grads_and_vars:
grad *= self.learning_rates[var.op.name]
grads_and_vars_mult.append((grad, var))
train_op = optimizer.apply_gradients(grads_and_vars_mult, tf.train.get_global_step())
如果您碰巧使用 tf.slim + slim.learning.create_train_op,这里有一个很好的例子:
https://github.com/google-research/tf-slim/blob/master/tf_slim/learning.py#L65
# Create the train_op and scale the gradients by providing a map from variable
# name (or variable) to a scaling coefficient:
gradient_multipliers = {
'conv0/weights': 1.2,
'fc8/weights': 3.4,
}
train_op = slim.learning.create_train_op(
total_loss,
optimizer,
gradient_multipliers=gradient_multipliers)
不幸的是,如果您想逐渐修改乘数,似乎无法使用 tf.Variable 而不是浮点值。
我想知道是否有一种方法可以像 Caffe 那样对不同的层使用不同的学习率。我正在尝试修改预训练模型并将其用于其他任务。我想要的是加快新添加层的训练,并使训练后的层保持低学习率,以防止它们被扭曲。例如,我有一个 5-conv-layer 预训练模型。现在我添加一个新的转换层并对其进行微调。前 5 层的学习率为 0.00001,最后一层为 0.001。知道如何实现吗?
使用 2 个优化器可以很容易地实现:
var_list1 = [variables from first 5 layers]
var_list2 = [the rest of variables]
train_op1 = GradientDescentOptimizer(0.00001).minimize(loss, var_list=var_list1)
train_op2 = GradientDescentOptimizer(0.0001).minimize(loss, var_list=var_list2)
train_op = tf.group(train_op1, train_op2)
此实现的一个缺点是它在优化器内部计算了两次 tf.gradients(.),因此就执行速度而言它可能不是最佳的。这可以通过显式调用 tf.gradients(.)、将列表分成 2 并将相应的梯度传递给两个优化器来缓解。
相关问题:
编辑:添加了更高效但更长的实现:
var_list1 = [variables from first 5 layers]
var_list2 = [the rest of variables]
opt1 = tf.train.GradientDescentOptimizer(0.00001)
opt2 = tf.train.GradientDescentOptimizer(0.0001)
grads = tf.gradients(loss, var_list1 + var_list2)
grads1 = grads[:len(var_list1)]
grads2 = grads[len(var_list1):]
tran_op1 = opt1.apply_gradients(zip(grads1, var_list1))
train_op2 = opt2.apply_gradients(zip(grads2, var_list2))
train_op = tf.group(train_op1, train_op2)
您可以使用 tf.trainable_variables()
获取所有训练变量并从中决定 select。
不同之处在于,在第一个实现中 tf.gradients(.)
在优化器中被调用了两次。这可能会导致执行一些冗余操作(例如,第一层上的梯度可以为后续层的梯度重用一些计算)。
1 月 22 日更新:下面的配方只是 GradientDescentOptimizer
的一个好主意,其他保持 运行 平均值的优化器将在参数更新,所以下面的配方不会影响等式的那部分
除了 Rafal 的方法之外,您还可以使用 Optimizer
的 compute_gradients
、apply_gradients
接口。例如,这是一个玩具网络,我在第二个参数
x = tf.Variable(tf.ones([]))
y = tf.Variable(tf.zeros([]))
loss = tf.square(x-y)
global_step = tf.Variable(0, name="global_step", trainable=False)
opt = tf.GradientDescentOptimizer(learning_rate=0.1)
grads_and_vars = opt.compute_gradients(loss, [x, y])
ygrad, _ = grads_and_vars[1]
train_op = opt.apply_gradients([grads_and_vars[0], (ygrad*2, y)], global_step=global_step)
init_op = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init_op)
for i in range(5):
sess.run([train_op, loss, global_step])
print sess.run([x, y])
你应该看看
[0.80000001, 0.40000001]
[0.72000003, 0.56]
[0.68800002, 0.62400001]
[0.67520005, 0.64960003]
[0.67008007, 0.65984005]
为每个变量收集学习率乘数,例如:
self.lr_multipliers[var.op.name] = lr_mult
然后在应用渐变之前应用它们,例如:
def _train_op(self):
tf.scalar_summary('learning_rate', self._lr_placeholder)
opt = tf.train.GradientDescentOptimizer(self._lr_placeholder)
grads_and_vars = opt.compute_gradients(self._loss)
grads_and_vars_mult = []
for grad, var in grads_and_vars:
grad *= self._network.lr_multipliers[var.op.name]
grads_and_vars_mult.append((grad, var))
tf.histogram_summary('variables/' + var.op.name, var)
tf.histogram_summary('gradients/' + var.op.name, grad)
return opt.apply_gradients(grads_and_vars_mult)
您可以找到整个示例 here。
The first 5 layers would have learning rate of 0.00001 and the last one would have 0.001. Any idea how to achieve this?
使用 tf.stop_gradient 有一种简单的方法可以做到这一点。 这是一个 3 层的示例:
x = layer1(input)
x = layer2(x)
output = layer3(x)
您可以按 1/100 的比例缩小前两层的渐变:
x = layer1(input)
x = layer2(x)
x = 1/100*x + (1-1/100)*tf.stop_gradient(x)
output = layer3(x)
在layer2上,"flow"分为两个分支:一个贡献为1/100的分支定期计算其梯度,但梯度幅度按1/100的比例缩小,另一个由于 tf.stop_gradient 运算符,branch 提供剩余的 "flow" 而不会影响梯度。因此,如果您在模型优化器上使用 0.001 的学习率,则前两层实际上将具有 0.00001 的学习率。
Tensorflow 1.7 引入了 tf.custom_gradient
,极大地简化了学习率乘数的设置,其方式现在与任何优化器兼容,包括那些累积梯度统计信息的优化器。例如,
import tensorflow as tf
def lr_mult(alpha):
@tf.custom_gradient
def _lr_mult(x):
def grad(dy):
return dy * alpha * tf.ones_like(x)
return x, grad
return _lr_mult
x0 = tf.Variable(1.)
x1 = tf.Variable(1.)
loss = tf.square(x0) + tf.square(lr_mult(0.1)(x1))
step = tf.train.GradientDescentOptimizer(learning_rate=0.1).minimize(loss)
sess = tf.InteractiveSession()
tf.global_variables_initializer().run()
tf.local_variables_initializer().run()
for _ in range(5):
sess.run([step])
print(sess.run([x0, x1, loss]))
Sergey Demyanov 答案的细微变化,您只需指定要更改的学习率
from collections import defaultdict
self.learning_rates = defaultdict(lambda: 1.0)
...
x = tf.layers.Dense(3)(x)
self.learning_rates[x.op.name] = 2.0
...
optimizer = tf.train.MomentumOptimizer(learning_rate=1e-3, momentum=0.9)
grads_and_vars = optimizer.compute_gradients(loss)
grads_and_vars_mult = []
for grad, var in grads_and_vars:
grad *= self.learning_rates[var.op.name]
grads_and_vars_mult.append((grad, var))
train_op = optimizer.apply_gradients(grads_and_vars_mult, tf.train.get_global_step())
如果您碰巧使用 tf.slim + slim.learning.create_train_op,这里有一个很好的例子: https://github.com/google-research/tf-slim/blob/master/tf_slim/learning.py#L65
# Create the train_op and scale the gradients by providing a map from variable
# name (or variable) to a scaling coefficient:
gradient_multipliers = {
'conv0/weights': 1.2,
'fc8/weights': 3.4,
}
train_op = slim.learning.create_train_op(
total_loss,
optimizer,
gradient_multipliers=gradient_multipliers)
不幸的是,如果您想逐渐修改乘数,似乎无法使用 tf.Variable 而不是浮点值。