Seq2Seq 模型是否仅用于时间序列?
Is Seq2Seq Models used for Time series only?
我们可以将 Seq2Seq 模型与没有时间关系(不是时间序列)的输入数据一起使用吗?例如,我有一个图像区域列表,我想将其提供给我的 seq2seq 模型。并且模型应该预测描述(输出是时间序列 |)或标题。
我不是从技术角度问的,我知道如果数据格式正确我就可以做到。我的问题比较理论化,可以将 Seq2Seq 与 none 时间序列数据一起使用吗?在此设置中是否有任何 papers/articles/references 使用 Seq2Seq ?
不,它必须是一个类似要求的序列。
Klaus Greff, et al., LSTM: A Search Space Odyssey, 2015 :
由于 LSTM 可以有效地捕获长期时间依赖性,而不会遇到困扰简单循环网络 (SRN) 的优化障碍,因此它们已被用于推进许多难题的技术发展水平。这包括手写识别和生成、语言建模和翻译、语音声学建模、语音合成、蛋白质二级结构预测、音频和视频数据分析等。
Felix A. Gers, et al., Learning to Forget: Continual Prediction with LSTM, 2000:LSTM 对任何我们怀疑可能存在层次分解但事先不知道这种分解是什么的顺序处理任务都有希望。
我们可以将 Seq2Seq 模型与没有时间关系(不是时间序列)的输入数据一起使用吗?例如,我有一个图像区域列表,我想将其提供给我的 seq2seq 模型。并且模型应该预测描述(输出是时间序列 |)或标题。
我不是从技术角度问的,我知道如果数据格式正确我就可以做到。我的问题比较理论化,可以将 Seq2Seq 与 none 时间序列数据一起使用吗?在此设置中是否有任何 papers/articles/references 使用 Seq2Seq ?
不,它必须是一个类似要求的序列。
Klaus Greff, et al., LSTM: A Search Space Odyssey, 2015 : 由于 LSTM 可以有效地捕获长期时间依赖性,而不会遇到困扰简单循环网络 (SRN) 的优化障碍,因此它们已被用于推进许多难题的技术发展水平。这包括手写识别和生成、语言建模和翻译、语音声学建模、语音合成、蛋白质二级结构预测、音频和视频数据分析等。
Felix A. Gers, et al., Learning to Forget: Continual Prediction with LSTM, 2000:LSTM 对任何我们怀疑可能存在层次分解但事先不知道这种分解是什么的顺序处理任务都有希望。