我可以将我的长序列分成 3 个较小的序列,并为 3 个样本使用状态 LSTM 吗?

Can I split my long sequences into 3 smaller ones and use a stateful LSTM for 3 samples?

我在做一个时间序列的序列分类问题。

我有 80 个时间序列,所有长度都是 1002。每个序列对应于 4 个类别中的一个(铜、镉、铅、mercury)。我想使用 Keras LSTM 对此进行建模。这些模型需要以 [batches, timesteps, features] 的形式提供数据。由于每个序列都是独立的,最基本的设置是 X_train 的形状为 [80, 1002, 1]。这在 LSTM 中工作正常(stateful=False

但是,1002 是相当长的 seq 长度。尺寸越小效果越好。

假设我将每个序列分成 334 个部分。我可以继续使用无状态 LSTM。但是(我认为?)让它对 3 个样本有状态然后重置状态是有意义的(因为 3 个块是相关的)。

如何在 Keras 中实现它?

首先,我使用简单的 X_train.reshape(-1, 334, 1) 将数据转换为 [240, 334, 1] 形状,但如何保持 3 个样本的状态,然后在 model.fit() 中重置状态?

我知道我需要在某个地方调用 model.reset_states(),但找不到任何示例代码可以告诉我如何使用它。我必须对模型进行子类化吗?我可以使用 for epoch in range(num_epochs)GradientTape 来做到这一点吗?我有哪些选择?我该如何实施?

此外,如果我将序列分开,我该如何处理标签?我是否将它们乘以每个 seq 分成的块数(在本例中为 3)?有没有办法让 LSTM 摄取 3 个样本,然后吐出一个预测?还是每个样本都必须对应一个预测?

最后,如果我将我的序列分成 3 个子序列,我的批处理大小是否必须为 3?或者我可以选择 3 的任意倍数吗?

这是我在 X_train.shape == [80, 1002, 1] 中使用的超级基本代码。

model = Sequential([
    LSTM(10, batch_input_shape=(10, 1002, 1)), # 10 samples per batch
    Dense(4, activation='sigmoid')
])
model.compile(loss='categorical_crossentropy',
             optimizer='rmsprop',
             metrics=['accuracy'])
model.fit(X_train, y_train, epochs=3, batch_size=10, shuffle=False)

我知道这里有很多问题,如果这对一个人来说太多了,我很乐意提出单独的问题。

简单的解决方案是将数据从具有 1 个特征重塑为具有 3 个特征。

[80, 1002, 1] 变成 [80, 334, 3] 而不是 [240, 334, 1]。这使样本数量保持不变,因此您不必搞乱状态。您也可以将它与正常的 fit() API.

一起使用