keras:当未启用急切执行时,张量对象不可迭代
keras: Tensor objects are not iterable when eager execution is not enabled
我正在 Keras 中编写序列到序列模型。出于某种原因,当我尝试在下面的函数中定义模型时:
def define_GRU_models(encoder_input_dim,
output_dim,
activation,
n_units):
# define training encoder #
###########################
# layer 1
encoder_inputs = Input(shape=encoder_input_dim)
l1_encoder = GRU(n_units,
name='l1_encoder',
return_sequences=True,
return_state=True)
l1_encoder_outputs, l1_encoder_state = l1_encoder(encoder_inputs)
# layer 2
l2_encoder = GRU(n_units,
name='l2_encoder',
return_state=True)
l2_encoder_outputs, l2_encoder_state = l2_encoder(l1_encoder_outputs)
# define training decoder #
###########################
# layer 1
decoder_inputs = Input(shape=(None, output_dim))
l1_decoder_gru = GRU(int(n_units/2),
name='l1_decoder_gru',
return_sequences=True,
return_state=False)
l1_decoder_outputs, _ = l1_decoder_gru(decoder_inputs)
# layer 2
l2_decoder_gru = GRU(n_units,
name='l2_decoder_gru',
return_sequences=True,
return_state=False)
l2_decoder_outputs, _ = l2_decoder_gru(l1_decoder_outputs, initial_state=l1_encoder_state)
# layer 3
l3_decoder_gru = GRU(n_units,
name='l3_decoder_gru',
return_sequences=True,
return_state=False)
l3_decoder_outputs, _ = l3_decoder_gru(l2_decoder_outputs, initial_state=l2_encoder_state)
# layer 4
l4_decoder_gru = GRU(int(n_units/2),
name='l4_decoder_gru',
return_state=False )
l4_decoder_outputs, _ = l4_decoder_gru(l3_decoder_outputs)
decoder_dense = Dense(output_dim, name='decoder_dense', activation=activation)
decoder_outputs = decoder_dense(l4_decoder_outputs)
model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
return model
我遇到这个错误:
Tensor objects are not iterable when eager execution is not enabled. To iterate over this tensor use tf.map_fn.
对于这一行(第一个解码器层):
l1_decoder_outputs, _ = l1_decoder_gru(decoder_inputs)
我似乎无法在任何其他地方找到解决方案。我究竟做错了什么?因为它似乎与 keras 示例兼容。
顺便说一句,
我的函数输入是:
(168, 12), 24, 'softmax', 128
问题是 'l1_decoder_gru'
没有 return 它的状态(即 return_state=False
)。它只有一个分配给 l1_decoder_outputs
的输出张量。因此,要解决此问题,请删除赋值左侧的 , _
部分:
l1_decoder_outputs = l1_decoder_gru(decoder_inputs)
或者您可以将 'l1_decoder_gru'
层的 return_state
参数设置为 True
(当然,如果这样做有意义并且您可能需要此层的状态模型的另一部分)。同样的事情也适用于您在模型中定义和使用的其他 GRU 层。
我正在 Keras 中编写序列到序列模型。出于某种原因,当我尝试在下面的函数中定义模型时:
def define_GRU_models(encoder_input_dim,
output_dim,
activation,
n_units):
# define training encoder #
###########################
# layer 1
encoder_inputs = Input(shape=encoder_input_dim)
l1_encoder = GRU(n_units,
name='l1_encoder',
return_sequences=True,
return_state=True)
l1_encoder_outputs, l1_encoder_state = l1_encoder(encoder_inputs)
# layer 2
l2_encoder = GRU(n_units,
name='l2_encoder',
return_state=True)
l2_encoder_outputs, l2_encoder_state = l2_encoder(l1_encoder_outputs)
# define training decoder #
###########################
# layer 1
decoder_inputs = Input(shape=(None, output_dim))
l1_decoder_gru = GRU(int(n_units/2),
name='l1_decoder_gru',
return_sequences=True,
return_state=False)
l1_decoder_outputs, _ = l1_decoder_gru(decoder_inputs)
# layer 2
l2_decoder_gru = GRU(n_units,
name='l2_decoder_gru',
return_sequences=True,
return_state=False)
l2_decoder_outputs, _ = l2_decoder_gru(l1_decoder_outputs, initial_state=l1_encoder_state)
# layer 3
l3_decoder_gru = GRU(n_units,
name='l3_decoder_gru',
return_sequences=True,
return_state=False)
l3_decoder_outputs, _ = l3_decoder_gru(l2_decoder_outputs, initial_state=l2_encoder_state)
# layer 4
l4_decoder_gru = GRU(int(n_units/2),
name='l4_decoder_gru',
return_state=False )
l4_decoder_outputs, _ = l4_decoder_gru(l3_decoder_outputs)
decoder_dense = Dense(output_dim, name='decoder_dense', activation=activation)
decoder_outputs = decoder_dense(l4_decoder_outputs)
model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
return model
我遇到这个错误:
Tensor objects are not iterable when eager execution is not enabled. To iterate over this tensor use tf.map_fn.
对于这一行(第一个解码器层):
l1_decoder_outputs, _ = l1_decoder_gru(decoder_inputs)
我似乎无法在任何其他地方找到解决方案。我究竟做错了什么?因为它似乎与 keras 示例兼容。
顺便说一句, 我的函数输入是:
(168, 12), 24, 'softmax', 128
问题是 'l1_decoder_gru'
没有 return 它的状态(即 return_state=False
)。它只有一个分配给 l1_decoder_outputs
的输出张量。因此,要解决此问题,请删除赋值左侧的 , _
部分:
l1_decoder_outputs = l1_decoder_gru(decoder_inputs)
或者您可以将 'l1_decoder_gru'
层的 return_state
参数设置为 True
(当然,如果这样做有意义并且您可能需要此层的状态模型的另一部分)。同样的事情也适用于您在模型中定义和使用的其他 GRU 层。