如何在 TensorFlow 中添加正则化?
How to add regularizations in TensorFlow?
我发现在许多使用 TensorFlow 实现的可用神经网络代码中,正则化项通常是通过手动向损失值添加附加项来实现的。
我的问题是:
是否有比手动正则化更优雅或推荐的方法?
我还发现 get_variable
有一个参数 regularizer
。应该如何使用?根据我的观察,如果我们向它传递一个正则化器(例如 tf.contrib.layers.l2_regularizer
,将计算一个表示正则化项的张量并将其添加到名为 tf.GraphKeys.REGULARIZATOIN_LOSSES
的图形集合中。TensorFlow 会自动使用该集合吗? (例如,优化器在训练时使用)?还是我应该自己使用那个集合?
正如您在第二点中所说,使用 regularizer
参数是推荐的方式。您可以在 get_variable
中使用它,或者在您的 variable_scope
中设置一次并使所有变量正规化。
图中收集了损失,您需要像这样手动将它们添加到您的成本函数中。
reg_losses = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
reg_constant = 0.01 # Choose an appropriate one.
loss = my_normal_loss + reg_constant * sum(reg_losses)
希望对您有所帮助!
现有答案的一些方面我不是很清楚,所以这里有一个分步指南:
定义正则化器。这是可以设置正则化常数的地方,例如:
regularizer = tf.contrib.layers.l2_regularizer(scale=0.1)
通过以下方式创建变量:
weights = tf.get_variable(
name="weights",
regularizer=regularizer,
...
)
等价地,可以通过常规 weights = tf.Variable(...)
构造函数创建变量,然后是 tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, weights)
.
定义一些loss
项并添加正则化项:
reg_variables = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
reg_term = tf.contrib.layers.apply_regularization(regularizer, reg_variables)
loss += reg_term
注意:看起来 tf.contrib.layers.apply_regularization
是作为 AddN
实现的,因此或多或少等同于 sum(reg_variables)
。
使用 contrib.learn
库执行此操作的另一个选项如下,基于 Tensorflow 网站上的 Deep MNIST tutorial。首先,假设你已经导入了相关的库(比如import tensorflow.contrib.layers as layers
),你可以在单独的方法中定义一个网络:
def easier_network(x, reg):
""" A network based on tf.contrib.learn, with input `x`. """
with tf.variable_scope('EasyNet'):
out = layers.flatten(x)
out = layers.fully_connected(out,
num_outputs=200,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = tf.nn.tanh)
out = layers.fully_connected(out,
num_outputs=200,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = tf.nn.tanh)
out = layers.fully_connected(out,
num_outputs=10, # Because there are ten digits!
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = None)
return out
然后,在main方法中,可以使用如下代码片段:
def main(_):
mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)
x = tf.placeholder(tf.float32, [None, 784])
y_ = tf.placeholder(tf.float32, [None, 10])
# Make a network with regularization
y_conv = easier_network(x, FLAGS.regu)
weights = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, 'EasyNet')
print("")
for w in weights:
shp = w.get_shape().as_list()
print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
print("")
reg_ws = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES, 'EasyNet')
for w in reg_ws:
shp = w.get_shape().as_list()
print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
print("")
# Make the loss function `loss_fn` with regularization.
cross_entropy = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
loss_fn = cross_entropy + tf.reduce_sum(reg_ws)
train_step = tf.train.AdamOptimizer(1e-4).minimize(loss_fn)
要使其正常工作,您需要遵循我之前链接到的 MNIST 教程并导入相关库,但这是学习 TensorFlow 的一个很好的练习,并且很容易看出正则化如何影响输出。如果您应用正则化作为参数,您可以看到以下内容:
- EasyNet/fully_connected/weights:0 shape:[784, 200] size:156800
- EasyNet/fully_connected/biases:0 shape:[200] size:200
- EasyNet/fully_connected_1/weights:0 shape:[200, 200] size:40000
- EasyNet/fully_connected_1/biases:0 shape:[200] size:200
- EasyNet/fully_connected_2/weights:0 shape:[200, 10] size:2000
- EasyNet/fully_connected_2/biases:0 shape:[10] size:10
- EasyNet/fully_connected/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_1/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_2/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
请注意,根据可用项目,正则化部分为您提供了三个项目。
使用 0、0.0001、0.01 和 1.0 的正则化,我得到的测试精度值分别为 0.9468、0.9476、0.9183 和 0.1135,显示了高正则化项的危险。
我会提供一个简单的正确答案,因为我没有找到。你只需要两个简单的步骤,剩下的由 tensorflow magic 完成:
在创建变量或层时添加正则化器:
tf.layers.dense(x, kernel_regularizer=tf.contrib.layers.l2_regularizer(0.001))
# or
tf.get_variable('a', regularizer=tf.contrib.layers.l2_regularizer(0.001))
定义损失时添加正则化项:
loss = ordinary_loss + tf.losses.get_regularization_loss()
有些回答让我更confused.Here我给两个方法说清楚
#1.adding all regs by hand
var1 = tf.get_variable(name='v1',shape=[1],dtype=tf.float32)
var2 = tf.Variable(name='v2',initial_value=1.0,dtype=tf.float32)
regularizer = tf.contrib.layers.l1_regularizer(0.1)
reg_term = tf.contrib.layers.apply_regularization(regularizer,[var1,var2])
#here reg_term is a scalar
#2.auto added and read,but using get_variable
with tf.variable_scope('x',
regularizer=tf.contrib.layers.l2_regularizer(0.1)):
var1 = tf.get_variable(name='v1',shape=[1],dtype=tf.float32)
var2 = tf.get_variable(name='v2',shape=[1],dtype=tf.float32)
reg_losses = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
#here reg_losses is a list,should be summed
然后可以加入总损失
cross_entropy = tf.losses.softmax_cross_entropy(
logits=logits, onehot_labels=labels)
l2_loss = weight_decay * tf.add_n(
[tf.nn.l2_loss(tf.cast(v, tf.float32)) for v in tf.trainable_variables()])
loss = cross_entropy + l2_loss
我用图表中的一个l2_regularizer
测试了tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
和tf.losses.get_regularization_loss()
,发现它们return的值相同。通过观察值的数量,我猜reg_constant已经通过设置tf.contrib.layers.l2_regularizer
的参数对值有意义了。
如果您有 CNN,您可以执行以下操作:
在你的模型函数中:
conv = tf.layers.conv2d(inputs=input_layer,
filters=32,
kernel_size=[3, 3],
kernel_initializer='xavier',
kernel_regularizer=tf.contrib.layers.l2_regularizer(1e-5),
padding="same",
activation=None)
...
在你的损失函数中:
onehot_labels = tf.one_hot(indices=tf.cast(labels, tf.int32), depth=num_classes)
loss = tf.losses.softmax_cross_entropy(onehot_labels=onehot_labels, logits=logits)
regularization_losses = tf.losses.get_regularization_losses()
loss = tf.add_n([loss] + regularization_losses)
如果有人还在看,我只想在 tf.keras 中补充一点,您可以通过将它们作为参数传递到图层中来添加权重正则化。从 Tensorflow Keras Tutorials 站点批发的添加 L2 正则化的示例:
model = keras.models.Sequential([
keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
activation=tf.nn.relu),
keras.layers.Dense(1, activation=tf.nn.sigmoid)
])
据我所知,使用此方法无需手动添加正则化损失。
参考:https://www.tensorflow.org/tutorials/keras/overfit_and_underfit#add_weight_regularization
tf.GraphKeys.REGULARIZATION_LOSSES
不会自动添加,但是有一个简单的添加方法:
reg_loss = tf.losses.get_regularization_loss()
total_loss = loss + reg_loss
tf.losses.get_regularization_loss()
使用 tf.add_n
按元素对 tf.GraphKeys.REGULARIZATION_LOSSES
的条目求和。 tf.GraphKeys.REGULARIZATION_LOSSES
通常是标量列表,使用正则化函数计算。它从对 tf.get_variable
的调用中获取条目,这些条目具有指定的 regularizer
参数。您也可以手动添加到该集合。这在使用 tf.Variable
以及指定 activity 正则化器或其他自定义正则化器时很有用。例如:
#This will add an activity regularizer on y to the regloss collection
regularizer = tf.contrib.layers.l2_regularizer(0.1)
y = tf.nn.sigmoid(x)
act_reg = regularizer(y)
tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, act_reg)
(在这个例子中,正则化 x 可能会更有效,因为对于大的 x,y 确实变平了。)
我发现在许多使用 TensorFlow 实现的可用神经网络代码中,正则化项通常是通过手动向损失值添加附加项来实现的。
我的问题是:
是否有比手动正则化更优雅或推荐的方法?
我还发现
get_variable
有一个参数regularizer
。应该如何使用?根据我的观察,如果我们向它传递一个正则化器(例如tf.contrib.layers.l2_regularizer
,将计算一个表示正则化项的张量并将其添加到名为tf.GraphKeys.REGULARIZATOIN_LOSSES
的图形集合中。TensorFlow 会自动使用该集合吗? (例如,优化器在训练时使用)?还是我应该自己使用那个集合?
正如您在第二点中所说,使用 regularizer
参数是推荐的方式。您可以在 get_variable
中使用它,或者在您的 variable_scope
中设置一次并使所有变量正规化。
图中收集了损失,您需要像这样手动将它们添加到您的成本函数中。
reg_losses = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
reg_constant = 0.01 # Choose an appropriate one.
loss = my_normal_loss + reg_constant * sum(reg_losses)
希望对您有所帮助!
现有答案的一些方面我不是很清楚,所以这里有一个分步指南:
定义正则化器。这是可以设置正则化常数的地方,例如:
regularizer = tf.contrib.layers.l2_regularizer(scale=0.1)
通过以下方式创建变量:
weights = tf.get_variable( name="weights", regularizer=regularizer, ... )
等价地,可以通过常规
weights = tf.Variable(...)
构造函数创建变量,然后是tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, weights)
.定义一些
loss
项并添加正则化项:reg_variables = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES) reg_term = tf.contrib.layers.apply_regularization(regularizer, reg_variables) loss += reg_term
注意:看起来
tf.contrib.layers.apply_regularization
是作为AddN
实现的,因此或多或少等同于sum(reg_variables)
。
使用 contrib.learn
库执行此操作的另一个选项如下,基于 Tensorflow 网站上的 Deep MNIST tutorial。首先,假设你已经导入了相关的库(比如import tensorflow.contrib.layers as layers
),你可以在单独的方法中定义一个网络:
def easier_network(x, reg):
""" A network based on tf.contrib.learn, with input `x`. """
with tf.variable_scope('EasyNet'):
out = layers.flatten(x)
out = layers.fully_connected(out,
num_outputs=200,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = tf.nn.tanh)
out = layers.fully_connected(out,
num_outputs=200,
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = tf.nn.tanh)
out = layers.fully_connected(out,
num_outputs=10, # Because there are ten digits!
weights_initializer = layers.xavier_initializer(uniform=True),
weights_regularizer = layers.l2_regularizer(scale=reg),
activation_fn = None)
return out
然后,在main方法中,可以使用如下代码片段:
def main(_):
mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)
x = tf.placeholder(tf.float32, [None, 784])
y_ = tf.placeholder(tf.float32, [None, 10])
# Make a network with regularization
y_conv = easier_network(x, FLAGS.regu)
weights = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, 'EasyNet')
print("")
for w in weights:
shp = w.get_shape().as_list()
print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
print("")
reg_ws = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES, 'EasyNet')
for w in reg_ws:
shp = w.get_shape().as_list()
print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
print("")
# Make the loss function `loss_fn` with regularization.
cross_entropy = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
loss_fn = cross_entropy + tf.reduce_sum(reg_ws)
train_step = tf.train.AdamOptimizer(1e-4).minimize(loss_fn)
要使其正常工作,您需要遵循我之前链接到的 MNIST 教程并导入相关库,但这是学习 TensorFlow 的一个很好的练习,并且很容易看出正则化如何影响输出。如果您应用正则化作为参数,您可以看到以下内容:
- EasyNet/fully_connected/weights:0 shape:[784, 200] size:156800
- EasyNet/fully_connected/biases:0 shape:[200] size:200
- EasyNet/fully_connected_1/weights:0 shape:[200, 200] size:40000
- EasyNet/fully_connected_1/biases:0 shape:[200] size:200
- EasyNet/fully_connected_2/weights:0 shape:[200, 10] size:2000
- EasyNet/fully_connected_2/biases:0 shape:[10] size:10
- EasyNet/fully_connected/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_1/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_2/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
请注意,根据可用项目,正则化部分为您提供了三个项目。
使用 0、0.0001、0.01 和 1.0 的正则化,我得到的测试精度值分别为 0.9468、0.9476、0.9183 和 0.1135,显示了高正则化项的危险。
我会提供一个简单的正确答案,因为我没有找到。你只需要两个简单的步骤,剩下的由 tensorflow magic 完成:
在创建变量或层时添加正则化器:
tf.layers.dense(x, kernel_regularizer=tf.contrib.layers.l2_regularizer(0.001)) # or tf.get_variable('a', regularizer=tf.contrib.layers.l2_regularizer(0.001))
定义损失时添加正则化项:
loss = ordinary_loss + tf.losses.get_regularization_loss()
有些回答让我更confused.Here我给两个方法说清楚
#1.adding all regs by hand
var1 = tf.get_variable(name='v1',shape=[1],dtype=tf.float32)
var2 = tf.Variable(name='v2',initial_value=1.0,dtype=tf.float32)
regularizer = tf.contrib.layers.l1_regularizer(0.1)
reg_term = tf.contrib.layers.apply_regularization(regularizer,[var1,var2])
#here reg_term is a scalar
#2.auto added and read,but using get_variable
with tf.variable_scope('x',
regularizer=tf.contrib.layers.l2_regularizer(0.1)):
var1 = tf.get_variable(name='v1',shape=[1],dtype=tf.float32)
var2 = tf.get_variable(name='v2',shape=[1],dtype=tf.float32)
reg_losses = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
#here reg_losses is a list,should be summed
然后可以加入总损失
cross_entropy = tf.losses.softmax_cross_entropy(
logits=logits, onehot_labels=labels)
l2_loss = weight_decay * tf.add_n(
[tf.nn.l2_loss(tf.cast(v, tf.float32)) for v in tf.trainable_variables()])
loss = cross_entropy + l2_loss
我用图表中的一个l2_regularizer
测试了tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
和tf.losses.get_regularization_loss()
,发现它们return的值相同。通过观察值的数量,我猜reg_constant已经通过设置tf.contrib.layers.l2_regularizer
的参数对值有意义了。
如果您有 CNN,您可以执行以下操作:
在你的模型函数中:
conv = tf.layers.conv2d(inputs=input_layer,
filters=32,
kernel_size=[3, 3],
kernel_initializer='xavier',
kernel_regularizer=tf.contrib.layers.l2_regularizer(1e-5),
padding="same",
activation=None)
...
在你的损失函数中:
onehot_labels = tf.one_hot(indices=tf.cast(labels, tf.int32), depth=num_classes)
loss = tf.losses.softmax_cross_entropy(onehot_labels=onehot_labels, logits=logits)
regularization_losses = tf.losses.get_regularization_losses()
loss = tf.add_n([loss] + regularization_losses)
如果有人还在看,我只想在 tf.keras 中补充一点,您可以通过将它们作为参数传递到图层中来添加权重正则化。从 Tensorflow Keras Tutorials 站点批发的添加 L2 正则化的示例:
model = keras.models.Sequential([
keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
activation=tf.nn.relu),
keras.layers.Dense(1, activation=tf.nn.sigmoid)
])
据我所知,使用此方法无需手动添加正则化损失。
参考:https://www.tensorflow.org/tutorials/keras/overfit_and_underfit#add_weight_regularization
tf.GraphKeys.REGULARIZATION_LOSSES
不会自动添加,但是有一个简单的添加方法:
reg_loss = tf.losses.get_regularization_loss()
total_loss = loss + reg_loss
tf.losses.get_regularization_loss()
使用 tf.add_n
按元素对 tf.GraphKeys.REGULARIZATION_LOSSES
的条目求和。 tf.GraphKeys.REGULARIZATION_LOSSES
通常是标量列表,使用正则化函数计算。它从对 tf.get_variable
的调用中获取条目,这些条目具有指定的 regularizer
参数。您也可以手动添加到该集合。这在使用 tf.Variable
以及指定 activity 正则化器或其他自定义正则化器时很有用。例如:
#This will add an activity regularizer on y to the regloss collection
regularizer = tf.contrib.layers.l2_regularizer(0.1)
y = tf.nn.sigmoid(x)
act_reg = regularizer(y)
tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, act_reg)
(在这个例子中,正则化 x 可能会更有效,因为对于大的 x,y 确实变平了。)