有没有办法使用 flair nlp 获得一个词或一组字符的实际向量嵌入?即天赋嵌入

is there anyway to get the actual vector embedding of a word or set of characters using flair nlp? i.e flair embeddings

基本上,我正在尝试使用自定义 flair 语言模型来获取向量中的单词或句子嵌入。这是可能的还是仅在使用 flair NER 模型时才能发挥 flair 嵌入的作用?

使用嵌入 .embed() 函数时,我收到类似“[Sentence: “pain” [− Tokens: 1]]”的输出 我在哪里寻找连续数字的向量。

谢谢。

我很困惑,因为有一个 official tutorial on word embeddings by the flair authors themselves,似乎正好涵盖了这个主题。我想问题是您将 .embed() 中处理过的句子对象与所述对象的实际 .embedding 属性 混淆了。

在任何情况下,您都可以像这样简单地迭代单个标记的词嵌入(取自上述教程):

from flair.embeddings import WordEmbeddings
from flair.data import Sentence

# init embedding
glove_embedding = WordEmbeddings('glove')

# create sentence.
sentence = Sentence('The grass is green .')

# embed a sentence using glove.
glove_embedding.embed(sentence)

# now check out the embedded tokens.
for token in sentence:
    print(token)
    print(token.embedding)

我对 flair 不够熟悉,不知道你是否可以将它应用于任意字符序列,但它对我来说适用于标记。