有没有办法使用 flair nlp 获得一个词或一组字符的实际向量嵌入?即天赋嵌入
is there anyway to get the actual vector embedding of a word or set of characters using flair nlp? i.e flair embeddings
基本上,我正在尝试使用自定义 flair 语言模型来获取向量中的单词或句子嵌入。这是可能的还是仅在使用 flair NER 模型时才能发挥 flair 嵌入的作用?
使用嵌入 .embed() 函数时,我收到类似“[Sentence: “pain” [− Tokens: 1]]”的输出
我在哪里寻找连续数字的向量。
谢谢。
我很困惑,因为有一个 official tutorial on word embeddings by the flair authors themselves,似乎正好涵盖了这个主题。我想问题是您将 .embed()
中处理过的句子对象与所述对象的实际 .embedding
属性 混淆了。
在任何情况下,您都可以像这样简单地迭代单个标记的词嵌入(取自上述教程):
from flair.embeddings import WordEmbeddings
from flair.data import Sentence
# init embedding
glove_embedding = WordEmbeddings('glove')
# create sentence.
sentence = Sentence('The grass is green .')
# embed a sentence using glove.
glove_embedding.embed(sentence)
# now check out the embedded tokens.
for token in sentence:
print(token)
print(token.embedding)
我对 flair 不够熟悉,不知道你是否可以将它应用于任意字符序列,但它对我来说适用于标记。
基本上,我正在尝试使用自定义 flair 语言模型来获取向量中的单词或句子嵌入。这是可能的还是仅在使用 flair NER 模型时才能发挥 flair 嵌入的作用?
使用嵌入 .embed() 函数时,我收到类似“[Sentence: “pain” [− Tokens: 1]]”的输出 我在哪里寻找连续数字的向量。
谢谢。
我很困惑,因为有一个 official tutorial on word embeddings by the flair authors themselves,似乎正好涵盖了这个主题。我想问题是您将 .embed()
中处理过的句子对象与所述对象的实际 .embedding
属性 混淆了。
在任何情况下,您都可以像这样简单地迭代单个标记的词嵌入(取自上述教程):
from flair.embeddings import WordEmbeddings
from flair.data import Sentence
# init embedding
glove_embedding = WordEmbeddings('glove')
# create sentence.
sentence = Sentence('The grass is green .')
# embed a sentence using glove.
glove_embedding.embed(sentence)
# now check out the embedded tokens.
for token in sentence:
print(token)
print(token.embedding)
我对 flair 不够熟悉,不知道你是否可以将它应用于任意字符序列,但它对我来说适用于标记。