在 Dynamic_RNN 中使用可变序列长度时我应该做损失掩蔽吗

Should I do loss masking while using variable sequence length in Dynamic_RNN

我目前正在使用 tf.Dynamic RNN 构建文本分类模型。我的输入长度不同,因此我将输入填充为相同(最大)长度。

我在 tf.nn.dynamic_rnn 中使用了 sequence_length 参数来输入每个输入长度的列表。

我的问题:

我应该做损失掩蔽吗?什么时候做损失掩蔽?

不,你不需要做损失掩蔽。我假设您想要为每个序列输出一个固定长度的向量。由于您将序列长度作为输入,动态 RNN 会自动确保为序列长度之外的序列复制状态。

参考:https://www.tensorflow.org/api_docs/python/tf/nn/dynamic_rnn。查看有关 sequence_length 参数的信息。