了解用于单词预测的 RNN 输入
Understanding RNN input for word prediction
在 rnn tensorflow 中为单词预测模型获取输入时,
为什么我们需要 3d 张量?
请看下面的代码。
为什么我们在这里需要额外的 1
?
x = tf.placeholder("float", [None, n_input, 1])
Emm,我猜你使用的是简单的预测模型,可能只是为了演示。我们尝试使用 RNN 来预测模型,其基本思想是句子中的每个单词都会受到前面或后面单词的影响(也就是我们所说的上下文),因此我们使用句子中单词的顺序输入来表示单词随着时间的流逝一一出现
所以我们需要一个形状为 [batch_size, words_counts, words_represent]
的张量,而在你的情况下, words_counts
是 n_input
代表 time steps
,代表张量的单词 words_represent
是形状 (1, )
元组.
BUT,在实际操作中,我们不只是将每个词转移到一个 (1, )
元组中,我们还可以使用词嵌入来创建一个有意义且有用的词张量表示。所以也许我猜你已经尝试了一个简单的演示或者我可能犯了错误。
在 rnn tensorflow 中为单词预测模型获取输入时,
为什么我们需要 3d 张量?
请看下面的代码。
为什么我们在这里需要额外的 1
?
x = tf.placeholder("float", [None, n_input, 1])
Emm,我猜你使用的是简单的预测模型,可能只是为了演示。我们尝试使用 RNN 来预测模型,其基本思想是句子中的每个单词都会受到前面或后面单词的影响(也就是我们所说的上下文),因此我们使用句子中单词的顺序输入来表示单词随着时间的流逝一一出现
所以我们需要一个形状为 [batch_size, words_counts, words_represent]
的张量,而在你的情况下, words_counts
是 n_input
代表 time steps
,代表张量的单词 words_represent
是形状 (1, )
元组.
BUT,在实际操作中,我们不只是将每个词转移到一个 (1, )
元组中,我们还可以使用词嵌入来创建一个有意义且有用的词张量表示。所以也许我猜你已经尝试了一个简单的演示或者我可能犯了错误。