我们是否在双向 LSTM 中为每个批次使用不同的权重?

Do we use different weights in Bidirectional LSTM for each batch?

例如,这是我们需要为每个批次调用的函数之一。这里看起来每个批次使用不同的参数。那是对的吗?如果是的话,为什么?我们不应该对整个训练集使用相同的参数吗?

def bidirectional_lstm(input_data, num_layers=3, rnn_size=200, keep_prob=0.6):

    output = input_data
    for layer in range(num_layers):
        with tf.variable_scope('encoder_{}'.format(layer)):

            cell_fw = tf.contrib.rnn.LSTMCell(rnn_size, initializer=tf.random_uniform_initializer(-0.1, 0.1, seed=2))
            cell_fw = tf.contrib.rnn.DropoutWrapper(cell_fw, input_keep_prob = keep_prob)

            cell_bw = tf.contrib.rnn.LSTMCell(rnn_size, initializer=tf.random_uniform_initializer(-0.1, 0.1, seed=2))
            cell_bw = tf.contrib.rnn.DropoutWrapper(cell_bw, input_keep_prob = keep_prob)

            outputs, states = tf.nn.bidirectional_dynamic_rnn(cell_fw, 
                                                              cell_bw, 
                                                              output,
                                                              dtype=tf.float32)
            output = tf.concat(outputs,2)

    return output

for batch_i, batch in enumerate(get_batches(X_train, batch_size)):
    embeddings = tf.nn.embedding_lookup(word_embedding_matrix, batch)
    output = bidirectional_lstm(embeddings)
    print(output.shape)

我已经弄明白里面的问题了。事实证明,我们确实使用了相同的参数,并且上面的代码将在第二次迭代中给出一个错误,指出 bidirectional kernel 已经存在。要解决此问题,我们需要在定义范围变量时设置 reuse=AUTO_REUSE。因此,行

with tf.variable_scope('encoder_{}'.format(layer)):

会变成

with tf.variable_scope('encoder_{}'.format(layer),reuse=AUTO_REUSE):

现在我们对每个批次使用相同的层。