tf.nn.rnn_cell.MultiRNNCell 创建变量形状不匹配?
tf.nn.rnn_cell.MultiRNNCell creates variable shape mismatch?
我正在尝试使用以下代码(摘自 here)来理解 TensorFlow(版本 1.3)中的 RNN 单元包装器。
import tensorflow as tf
import numpy as np
tf.reset_default_graph()
X = np.random.randn(2, 10, 8)
X[1, 6:] = 0
X_lengths = [10, 6]
cell = tf.nn.rnn_cell.LSTMCell(num_units=64, state_is_tuple=True)
cell = tf.nn.rnn_cell.DropoutWrapper(cell=cell, output_keep_prob=0.5)
# cell = tf.nn.rnn_cell.MultiRNNCell(cells=[cell] * n, state_is_tuple=True)
cell = tf.nn.rnn_cell.MultiRNNCell(cells=[cell for _ in range(n)], state_is_tuple=True)
outputs, last_states = tf.nn.dynamic_rnn(
cell=cell,
dtype=tf.float64,
sequence_length=X_lengths,
inputs=X)
result = tf.contrib.learn.run_n(
{"outputs": outputs, "last_states": last_states},
n=1,
feed_dict=None)
print(result[0]["outputs"].shape)
print(result[0]["outputs"])
...
第一个问题是涉及tf.nn.rnn_cell.MultiRNNCell
的代码行。具体来说,代码在 n=1
时运行良好(意味着实际只生成一层)。使用n>=2
时,总是出现如下错误信息(注释的原始行和下面的另一个实现建议here给出相同的错误信息):
ValueError: Trying to share variable
rnn/multi_rnn_cell/cell_0/lstm_cell/kernel, but specified shape (128,
256) and found shape (72, 256).
根据我目前的调查,错误出现在 tf.nn_dynamic_rnn()
函数调用处。但我还没有弄清楚确切的原因。
有人可以解释一下并提供一些关于如何使用 RNN 细胞包装器的指南吗?
第二个问题与关于弃用 tf.contrib.learn.run_n
函数的警告消息有关。该消息还建议以下内容:
请改用 tf.train.*
实用程序。您可以使用 learn/estimators/estimator.py 作为示例。
我也找不到在这里使用正确实用程序的好方法(请原谅我对 TensorFlow 的肤浅了解)。
欢迎就其中一个或两个问题提出 comments/suggestions。
谢谢!
您可能需要从 1.1 版开始以不同方式定义单元格数组。我猜你正在使用的代码是在那之前写的。使用类似:
cells = []
for _ in range(n)
cell = tf.nn.rnn_cell.LSTMCell(num_units=64, state_is_tuple=True)
cell = tf.nn.rnn_cell.DropoutWrapper(cell=cell, output_keep_prob=0.5)
cells.append(cell)
cell = tf.nn.rnn_cell.MultiRNNCell(cells, state_is_tuple=True)
问题是您当前使用的语法试图重复使用相同的 cell
对象 n
次,因此您 运行 遇到了共享变量的一些问题。如果按照我建议的方式进行操作,您可以唯一地定义每个 cell
并避免意外共享变量。
我正在尝试使用以下代码(摘自 here)来理解 TensorFlow(版本 1.3)中的 RNN 单元包装器。
import tensorflow as tf
import numpy as np
tf.reset_default_graph()
X = np.random.randn(2, 10, 8)
X[1, 6:] = 0
X_lengths = [10, 6]
cell = tf.nn.rnn_cell.LSTMCell(num_units=64, state_is_tuple=True)
cell = tf.nn.rnn_cell.DropoutWrapper(cell=cell, output_keep_prob=0.5)
# cell = tf.nn.rnn_cell.MultiRNNCell(cells=[cell] * n, state_is_tuple=True)
cell = tf.nn.rnn_cell.MultiRNNCell(cells=[cell for _ in range(n)], state_is_tuple=True)
outputs, last_states = tf.nn.dynamic_rnn(
cell=cell,
dtype=tf.float64,
sequence_length=X_lengths,
inputs=X)
result = tf.contrib.learn.run_n(
{"outputs": outputs, "last_states": last_states},
n=1,
feed_dict=None)
print(result[0]["outputs"].shape)
print(result[0]["outputs"])
...
第一个问题是涉及tf.nn.rnn_cell.MultiRNNCell
的代码行。具体来说,代码在 n=1
时运行良好(意味着实际只生成一层)。使用n>=2
时,总是出现如下错误信息(注释的原始行和下面的另一个实现建议here给出相同的错误信息):
ValueError: Trying to share variable rnn/multi_rnn_cell/cell_0/lstm_cell/kernel, but specified shape (128, 256) and found shape (72, 256).
根据我目前的调查,错误出现在 tf.nn_dynamic_rnn()
函数调用处。但我还没有弄清楚确切的原因。
有人可以解释一下并提供一些关于如何使用 RNN 细胞包装器的指南吗?
第二个问题与关于弃用 tf.contrib.learn.run_n
函数的警告消息有关。该消息还建议以下内容:
请改用 tf.train.*
实用程序。您可以使用 learn/estimators/estimator.py 作为示例。
我也找不到在这里使用正确实用程序的好方法(请原谅我对 TensorFlow 的肤浅了解)。
欢迎就其中一个或两个问题提出 comments/suggestions。
谢谢!
您可能需要从 1.1 版开始以不同方式定义单元格数组。我猜你正在使用的代码是在那之前写的。使用类似:
cells = []
for _ in range(n)
cell = tf.nn.rnn_cell.LSTMCell(num_units=64, state_is_tuple=True)
cell = tf.nn.rnn_cell.DropoutWrapper(cell=cell, output_keep_prob=0.5)
cells.append(cell)
cell = tf.nn.rnn_cell.MultiRNNCell(cells, state_is_tuple=True)
问题是您当前使用的语法试图重复使用相同的 cell
对象 n
次,因此您 运行 遇到了共享变量的一些问题。如果按照我建议的方式进行操作,您可以唯一地定义每个 cell
并避免意外共享变量。