在spaCy下使用BERT得到sentence embeddings

Use BERT under spaCy to get sentence embeddings

我正在尝试使用 BERT 来获取句子嵌入。这是我的做法:

import spacy
nlp = spacy.load("en_core_web_trf")
nlp("The quick brown fox jumps over the lazy dog").vector 

这会输出一个空向量!!

array([], dtype=float32)

我是不是漏掉了什么?

变形金刚与其他 spacy 模型有点不同,但您可以使用 doc._.trf_data.tensors[1].

单个 BPE(字节对编码)令牌片段的向量在 doc._.trf_data.tensors[0] 中。请注意,我使用术语 token-pieces 而不是 tokens,以防止 spacy 标记与 BPE 标记器生成的标记之间的混淆。

例如,在我们的例子中,spacy-tokens 是:

for i, spacy_tok in enumerate(doc):
  print(f"spacy-token {i + 1}: {spacy_tok.text}")
spacy-token 1: The
spacy-token 2: quick
spacy-token 3: brown
spacy-token 4: fox
spacy-token 5: jumps
spacy-token 6: over
spacy-token 7: the
spacy-token 8: lazy
spacy-token 9: dog

令牌碎片是:

for i, tok_piece in enumerate(doc._.trf_data.tokens['input_texts'][0]):
  print(f"token-piece {i + 1}: {tok_piece}")
token-piece 1: <s>
token-piece 2: The
token-piece 3: Ġquick
token-piece 4: Ġbrown
token-piece 5: Ġfox
token-piece 6: Ġjumps
token-piece 7: Ġover
token-piece 8: Ġthe
token-piece 9: Ġlazy
token-piece 10: Ġdog
token-piece 11: </s>