如何用 Keras 实现深度双向 LSTM?
How to implement a deep bidirectional LSTM with Keras?
我正在尝试实现基于 LSTM 的语音识别器。到目前为止,我可以按照合并层中的示例设置双向 LSTM(我认为它作为双向 LSTM 工作)。现在我想用另一个双向 LSTM 层来尝试它,这使它成为一个深度双向 LSTM。但是我无法弄清楚如何将先前合并的两层的输出连接到第二组 LSTM 层中。我不知道 Keras 是否可行。希望有人能帮我解决这个问题。
我的单层双向LSTM代码如下
left = Sequential()
left.add(LSTM(output_dim=hidden_units, init='uniform', inner_init='uniform',
forget_bias_init='one', return_sequences=True, activation='tanh',
inner_activation='sigmoid', input_shape=(99, 13)))
right = Sequential()
right.add(LSTM(output_dim=hidden_units, init='uniform', inner_init='uniform',
forget_bias_init='one', return_sequences=True, activation='tanh',
inner_activation='sigmoid', input_shape=(99, 13), go_backwards=True))
model = Sequential()
model.add(Merge([left, right], mode='sum'))
model.add(TimeDistributedDense(nb_classes))
model.add(Activation('softmax'))
sgd = SGD(lr=0.1, decay=1e-5, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)
print("Train...")
model.fit([X_train, X_train], Y_train, batch_size=1, nb_epoch=nb_epoches, validation_data=([X_test, X_test], Y_test), verbose=1, show_accuracy=True)
我的 x 和 y 值的尺寸如下。
(100, 'train sequences')
(20, 'test sequences')
('X_train shape:', (100, 99, 13))
('X_test shape:', (20, 99, 13))
('y_train shape:', (100, 99, 11))
('y_test shape:', (20, 99, 11))
好吧,我得到了 Keras 问题上发布的问题的答案。希望这对寻找这种方法的任何人都有用。
How to implement deep bidirectional -LSTM
您可以使用 keras.layers.wrappers.Bidirectional
。
官方手册可以参考这里,https://keras.io/layers/wrappers/#bidirectional
现在设计 BiLSTM 更容易了。根据此处的官方文档添加了新的 class Bidirectional
:https://www.tensorflow.org/api_docs/python/tf/keras/layers/Bidirectional
model.add(Bidirectional(LSTM(64)))
我正在尝试实现基于 LSTM 的语音识别器。到目前为止,我可以按照合并层中的示例设置双向 LSTM(我认为它作为双向 LSTM 工作)。现在我想用另一个双向 LSTM 层来尝试它,这使它成为一个深度双向 LSTM。但是我无法弄清楚如何将先前合并的两层的输出连接到第二组 LSTM 层中。我不知道 Keras 是否可行。希望有人能帮我解决这个问题。
我的单层双向LSTM代码如下
left = Sequential()
left.add(LSTM(output_dim=hidden_units, init='uniform', inner_init='uniform',
forget_bias_init='one', return_sequences=True, activation='tanh',
inner_activation='sigmoid', input_shape=(99, 13)))
right = Sequential()
right.add(LSTM(output_dim=hidden_units, init='uniform', inner_init='uniform',
forget_bias_init='one', return_sequences=True, activation='tanh',
inner_activation='sigmoid', input_shape=(99, 13), go_backwards=True))
model = Sequential()
model.add(Merge([left, right], mode='sum'))
model.add(TimeDistributedDense(nb_classes))
model.add(Activation('softmax'))
sgd = SGD(lr=0.1, decay=1e-5, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)
print("Train...")
model.fit([X_train, X_train], Y_train, batch_size=1, nb_epoch=nb_epoches, validation_data=([X_test, X_test], Y_test), verbose=1, show_accuracy=True)
我的 x 和 y 值的尺寸如下。
(100, 'train sequences')
(20, 'test sequences')
('X_train shape:', (100, 99, 13))
('X_test shape:', (20, 99, 13))
('y_train shape:', (100, 99, 11))
('y_test shape:', (20, 99, 11))
好吧,我得到了 Keras 问题上发布的问题的答案。希望这对寻找这种方法的任何人都有用。 How to implement deep bidirectional -LSTM
您可以使用 keras.layers.wrappers.Bidirectional
。
官方手册可以参考这里,https://keras.io/layers/wrappers/#bidirectional
现在设计 BiLSTM 更容易了。根据此处的官方文档添加了新的 class Bidirectional
:https://www.tensorflow.org/api_docs/python/tf/keras/layers/Bidirectional
model.add(Bidirectional(LSTM(64)))