两个堆叠的 LSTM 层之间有什么联系?

What is the connections between two stacked LSTM layers?

问题类似于这个 What's the input of each LSTM layer in a stacked LSTM network?,但更多的是实现细节。

为简单起见,4 个单元和 2 个单元的结构如何,如下所示

model.add(LSTM(4, input_shape=input_shape,  return_sequences=True))
model.add(LSTM(2,input_shape=input_shape))

所以我知道LSTM_1的输出是4个长度但是接下来的2个单元如何处理这4个输入,它们是否完全连接到下一层节点?

我猜他们是全连接的,但不确定像下图,Keras document

中没有说明

谢谢!

它的长度不是 4,而是 4 "features"。

长度在输入形状中并且永远不会改变,当您将常规输入提供给一个 LSTM 时发生的情况与将 LSTM 的输出提供给另一个 LSTM 时发生的情况绝对没有区别。

您可以只查看模型的摘要以查看形状并了解发生了什么。您永远不会使用 LSTM 更改长度。

他们根本不交流。每个都采用长度维度,循环处理它,彼此独立。当一个完成并输出一个张量时,下一个获取张量并按照相同的规则单独处理它。