TensorFlow 中 Word2Vec 的类比?

Analogies from Word2Vec in TensorFlow?

我在 Tensor Flow 中实现了与代码类似的词嵌入 here 我能够获得最终的嵌入 (final_embeddings),但我想使用典型的类比来评估嵌入这个练习。如何确定哪个术语对应于最终嵌入数组中的哪一行?或者,Tensor Flow 中是否有针对此的实现?任何帮助将不胜感激(细节和资源将是一个加号;))。谢谢!

向您推荐此conceptual tutorial。 如果您使用的是 skip-gram,则输入是单热编码。所以1的索引就是词向量的索引。

tensorflow中的实现非常简单。你可能想看看这个函数:tf.nn.embedding_lookup

例如:

embed = tf.nn.embedding_lookup(embedding, inputs)

embed 就是你要找的向量。

最终embeddings数组中哪个term对应哪一行完全取决于你的实现。在你训练之前的某个时候,你把每个单词都转换成了一个数字,对吧?此数字表示嵌入中的行 table。

如果您想知道具体的名称,可以在此处 post 部分代码。