在 Dynamic_RNN 中使用可变序列长度时我应该做损失掩蔽吗
Should I do loss masking while using variable sequence length in Dynamic_RNN
我目前正在使用 tf.Dynamic RNN 构建文本分类模型。我的输入长度不同,因此我将输入填充为相同(最大)长度。
我在 tf.nn.dynamic_rnn 中使用了 sequence_length 参数来输入每个输入长度的列表。
我的问题:
我应该做损失掩蔽吗?什么时候做损失掩蔽?
不,你不需要做损失掩蔽。我假设您想要为每个序列输出一个固定长度的向量。由于您将序列长度作为输入,动态 RNN 会自动确保为序列长度之外的序列复制状态。
参考:https://www.tensorflow.org/api_docs/python/tf/nn/dynamic_rnn。查看有关 sequence_length 参数的信息。
我目前正在使用 tf.Dynamic RNN 构建文本分类模型。我的输入长度不同,因此我将输入填充为相同(最大)长度。
我在 tf.nn.dynamic_rnn 中使用了 sequence_length 参数来输入每个输入长度的列表。
我的问题:
我应该做损失掩蔽吗?什么时候做损失掩蔽?
不,你不需要做损失掩蔽。我假设您想要为每个序列输出一个固定长度的向量。由于您将序列长度作为输入,动态 RNN 会自动确保为序列长度之外的序列复制状态。
参考:https://www.tensorflow.org/api_docs/python/tf/nn/dynamic_rnn。查看有关 sequence_length 参数的信息。