时间序列数据作为 X 输入,3d 连续数据作为目标 Y - 使用 RNN(LSTM 和 GRU)进行回归
Times series data input as X and 3d continuous data as target Y - Regression using RNN ( LSTM & GRU )
实际上我正在尝试使用 LSTM 或 GRU 构建 RNN 进行回归。
我的输入数据是来自 Imu 传感器的时间序列,我的目标数据是 (x,y,z),
准确地说,我正在尝试从时间序列(愉悦、唤醒和支配)中预测 PAD 值。
所以对于每个时间序列文件夹,我都有相应的 PAD 值
X=[-1.1546,-2.55...,N] Y = [-0.5,0.6,0.3]
我知道 LSTM 需要 3d instence (1,x,y) 输入,输入没问题,
但问题在于目标,你认为我需要像输入一样重塑 3d 目标吗?
或者你有什么想法来处理我的问题吗?
X = 时间序列和 Y = (x,y,z)
提前感谢您的回答或任何建议!
您只需要重塑游览输入(batch_size、时间步长、特征),但您的目标形状取决于您在 LSTM 之后放置的内容,或者您为 LSTM 选择的输出类型。
假设你有一个输出 n 个神经元的 LSTM,如果你选择设置 return_sequences = False,它将有这样的输出:(batch_size, n)(每个序列一个输出).
如果您选择设置 return_sequences = True,它将输出一个与输入相同大小的序列,因此您将得到一个输出形状:(batch_size , timesteps, n) .
在第一种情况下,您的输出直接是 2d,因此您不需要重塑目标。如果你决定使用 return_sequences = True,你将需要找到一种方法来重塑 LSTM 的输出(Keras 中有多个层允许你改变前一层输出的形状)。
实际上我正在尝试使用 LSTM 或 GRU 构建 RNN 进行回归。 我的输入数据是来自 Imu 传感器的时间序列,我的目标数据是 (x,y,z), 准确地说,我正在尝试从时间序列(愉悦、唤醒和支配)中预测 PAD 值。 所以对于每个时间序列文件夹,我都有相应的 PAD 值 X=[-1.1546,-2.55...,N] Y = [-0.5,0.6,0.3] 我知道 LSTM 需要 3d instence (1,x,y) 输入,输入没问题, 但问题在于目标,你认为我需要像输入一样重塑 3d 目标吗? 或者你有什么想法来处理我的问题吗? X = 时间序列和 Y = (x,y,z)
提前感谢您的回答或任何建议!
您只需要重塑游览输入(batch_size、时间步长、特征),但您的目标形状取决于您在 LSTM 之后放置的内容,或者您为 LSTM 选择的输出类型。
假设你有一个输出 n 个神经元的 LSTM,如果你选择设置 return_sequences = False,它将有这样的输出:(batch_size, n)(每个序列一个输出).
如果您选择设置 return_sequences = True,它将输出一个与输入相同大小的序列,因此您将得到一个输出形状:(batch_size , timesteps, n) .
在第一种情况下,您的输出直接是 2d,因此您不需要重塑目标。如果你决定使用 return_sequences = True,你将需要找到一种方法来重塑 LSTM 的输出(Keras 中有多个层允许你改变前一层输出的形状)。