tf.nn.rnn_cell.MultiRNNCell 创建变量形状不匹配?

tf.nn.rnn_cell.MultiRNNCell creates variable shape mismatch?

我正在尝试使用以下代码(摘自 here)来理解 TensorFlow(版本 1.3)中的 RNN 单元包装器。

import tensorflow as tf
import numpy as np
tf.reset_default_graph()
X = np.random.randn(2, 10, 8)

X[1, 6:] = 0
X_lengths = [10, 6]

cell = tf.nn.rnn_cell.LSTMCell(num_units=64, state_is_tuple=True)  
cell = tf.nn.rnn_cell.DropoutWrapper(cell=cell, output_keep_prob=0.5)

# cell = tf.nn.rnn_cell.MultiRNNCell(cells=[cell] * n, state_is_tuple=True)
cell = tf.nn.rnn_cell.MultiRNNCell(cells=[cell for _ in range(n)], state_is_tuple=True)

outputs, last_states = tf.nn.dynamic_rnn(
    cell=cell,
    dtype=tf.float64,
    sequence_length=X_lengths,
    inputs=X)
result = tf.contrib.learn.run_n(
    {"outputs": outputs, "last_states": last_states},
    n=1,
    feed_dict=None)
print(result[0]["outputs"].shape)
print(result[0]["outputs"])
...

第一个问题是涉及tf.nn.rnn_cell.MultiRNNCell的代码行。具体来说,代码在 n=1 时运行良好(意味着实际只生成一层)。使用n>=2时,总是出现如下错误信息(注释的原始行和下面的另一个实现建议here给出相同的错误信息):

ValueError: Trying to share variable rnn/multi_rnn_cell/cell_0/lstm_cell/kernel, but specified shape (128, 256) and found shape (72, 256).

根据我目前的调查,错误出现在 tf.nn_dynamic_rnn() 函数调用处。但我还没有弄清楚确切的原因。 有人可以解释一下并提供一些关于如何使用 RNN 细胞包装器的指南吗?

第二个问题与关于弃用 tf.contrib.learn.run_n 函数的警告消息有关。该消息还建议以下内容: 请改用 tf.train.* 实用程序。您可以使用 learn/estimators/estimator.py 作为示例。 我也找不到在这里使用正确实用程序的好方法(请原谅我对 TensorFlow 的肤浅了解)。
欢迎就其中一个或两个问题提出 comments/suggestions。 谢谢!

您可能需要从 1.1 版开始以不同方式定义单元格数组。我猜你正在使用的代码是在那之前写的。使用类似:

cells = []
for _ in range(n)
    cell = tf.nn.rnn_cell.LSTMCell(num_units=64, state_is_tuple=True)  
    cell = tf.nn.rnn_cell.DropoutWrapper(cell=cell, output_keep_prob=0.5)
    cells.append(cell)
cell = tf.nn.rnn_cell.MultiRNNCell(cells, state_is_tuple=True)

问题是您当前使用的语法试图重复使用相同的 cell 对象 n 次,因此您 运行 遇到了共享变量的一些问题。如果按照我建议的方式进行操作,您可以唯一地定义每个 cell 并避免意外共享变量。