用 spaCy 标记一个已经标记化的字符串

Tag an already tokenised string with spaCy

为了进行比较研究,我正在处理已经标记化的数据(不是 spacy)。我需要使用这些标记作为输入,以确保我在所有方面都使用相同的数据。我希望将这些标记输入 spaCy 的标记器,但以下操作失败:

import spacy

nlp = spacy.load('en', disable=['tokenizer', 'parser', 'ner', 'textcat'])
sent = ['I', 'like', 'yellow', 'bananas']

doc = nlp(sent)

for i in doc:
    print(i)

具有以下痕迹

Traceback (most recent call last):
  File "C:/Users/bmvroy/.PyCharm2018.2/config/scratches/scratch_6.py", line 6, in <module>
    doc = nlp(sent)
  File "C:\Users\bmvroy\venv\lib\site-packages\spacy\language.py", line 346, in __call__
    doc = self.make_doc(text)
  File "C:\Users\bmvroy\venv\lib\site-packages\spacy\language.py", line 378, in make_doc
    return self.tokenizer(text)
TypeError: Argument 'string' has incorrect type (expected str, got list)

首先,当我在 load() 语句中禁用分词器时,我不确定为什么 spaCy 会尝试对输入进行分词。其次,显然这不是要走的路。

我正在寻找一种方法来为标记器提供标记列表。 spaCy 有可能吗?


我尝试了@aab 提供的解决方案并结合了 the documentation 的信息,但无济于事:

from spacy.tokens import Doc
from spacy.lang.en import English
from spacy.pipeline import Tagger

nlp = English()
tagger = Tagger(nlp.vocab)

words = ['Listen', 'up', '.']
spaces = [True, False, False]

doc = Doc(nlp.vocab, words=words, spaces=spaces)
processed = tagger(doc)
print(processed)

此代码没有 运行,并给出了以下错误:

    processed = tagger(doc)
  File "pipeline.pyx", line 426, in spacy.pipeline.Tagger.__call__
  File "pipeline.pyx", line 438, in spacy.pipeline.Tagger.predict
AttributeError: 'bool' object has no attribute 'tok2vec'

您需要使用替代方法直接使用 Doc class 构建文档。这是他们文档中的示例 (https://spacy.io/api/doc):

from spacy.tokens import Doc
doc = Doc(nlp.vocab, words=[u'hello', u'world', u'!'], spaces=[True, False, False])

spaces 参数(每个标记后是否跟一个 space)是可选的。

然后你可以运行你需要的组件,所以整个事情看起来像:

import spacy
from spacy.tokens import Doc

nlp = spacy.load('en')
doc = Doc(nlp.vocab, words=[u'hello', u'world', u'!'], spaces=[True, False, False])

nlp.tagger(doc)
nlp.parser(doc)

for t in doc:
    print(t.text, t.pos_, t.tag_, t.dep_, t.head)