整个句子与动词的 BERT 嵌入
BERT embeddings for entire sentences vs. verbs
首先,我假设句子的大部分语义 value 是由连接所述动词的主语和宾语的动词调节的。我知道我在这里简化了一点,因为可以有多个动词等。但是从中抽象出来,我很好奇它是否适用于 BERT 为整个句子生成嵌入向量,比如 "Two halves make a whole" 会在测量上更类似于嵌入向量对于像 "make" 这样的单数动词,与说动词 "eat".
的向量相比
为了回答您的“问题”,如果我是您,我会尝试进行实际测试。有关将 bert 用于句子嵌入的简单方法,请查看此 repo:使用起来非常简单。
获得嵌入向量后,您可以使用任何 similarity function 来验证您的假设。
但是根据我的(有限)经验,我认为“make”的向量比“eat”的向量更相似,这也只是因为“make”出现在另一个句子中,因此有助于嵌入句子。
首先,我假设句子的大部分语义 value 是由连接所述动词的主语和宾语的动词调节的。我知道我在这里简化了一点,因为可以有多个动词等。但是从中抽象出来,我很好奇它是否适用于 BERT 为整个句子生成嵌入向量,比如 "Two halves make a whole" 会在测量上更类似于嵌入向量对于像 "make" 这样的单数动词,与说动词 "eat".
的向量相比为了回答您的“问题”,如果我是您,我会尝试进行实际测试。有关将 bert 用于句子嵌入的简单方法,请查看此 repo:使用起来非常简单。
获得嵌入向量后,您可以使用任何 similarity function 来验证您的假设。
但是根据我的(有限)经验,我认为“make”的向量比“eat”的向量更相似,这也只是因为“make”出现在另一个句子中,因此有助于嵌入句子。