如何使用 spacy_langdetect 包中的 LanguageDetector()?
How to use LanguageDetector() from spacy_langdetect package?
我正在尝试使用 spacy_langdetect 包,我能找到的唯一示例代码是 (https://spacy.io/universe/project/spacy-langdetect):
import spacy
from spacy_langdetect import LanguageDetector
nlp = spacy.load("en_core_web_sm")
nlp.add_pipe(LanguageDetector(), name='language_detector', last=True)
text = 'This is an english text.'
doc = nlp(text)
print(doc._.language)
抛出错误:nlp.add_pipe
现在采用注册组件工厂的字符串名称,而不是可调用组件。
所以我尝试使用下面的方法添加到我的 nlp 管道中
language_detector = LanguageDetector()
nlp.add_pipe("language_detector")
但这给出了错误:无法找到 'language_detector' 语言英语 (en) 的工厂。当 spaCy 使用未在当前语言 class 上注册的自定义组件名称调用 nlp.create_pipe
时,通常会发生这种情况。如果您使用的是 Transformer,请确保安装 'spacy-transformers'。如果您使用的是自定义组件,请确保已添加装饰器 @Language.component
(对于函数组件)或 @Language.factory
(对于 class 组件)。
可用工厂:attribute_ruler、tok2vec、merge_noun_chunks、merge_entities、merge_subtokens、token_splitter、parser、beam_parser、entity_linker、ner , beam_ner, entity_ruler, lemmatizer, tagger, morphologizer, senter, sentencizer, textcat, textcat_multilabel, en.lemmatizer
我不完全理解如何添加它,因为它不是真正的自定义组件。
对于非内置组件(例如 LanguageDetector)的 spaCy v3.0,您必须先将其包装到一个函数中,然后再将其添加到 nlp 管道中。在您的示例中,您可以执行以下操作:
import spacy
from spacy.language import Language
from spacy_langdetect import LanguageDetector
def get_lang_detector(nlp, name):
return LanguageDetector()
nlp = spacy.load("en_core_web_sm")
Language.factory("language_detector", func=get_lang_detector)
nlp.add_pipe('language_detector', last=True)
text = 'This is an english text.'
doc = nlp(text)
print(doc._.language)
对于内置组件(即标记器、解析器、神经网络等),请参阅:https://spacy.io/usage/processing-pipelines
与@Eric 相同,但已向工厂装饰器注册:
import spacy
from spacy.language import Language
from spacy_langdetect import LanguageDetector
@Language.factory("language_detector")
def get_lang_detector(nlp, name):
return LanguageDetector()
nlp = spacy.load("en_core_web_sm")
nlp.add_pipe('language_detector', last=True)
print(nlp("This is an english text.")._.language)
我正在尝试使用 spacy_langdetect 包,我能找到的唯一示例代码是 (https://spacy.io/universe/project/spacy-langdetect):
import spacy
from spacy_langdetect import LanguageDetector
nlp = spacy.load("en_core_web_sm")
nlp.add_pipe(LanguageDetector(), name='language_detector', last=True)
text = 'This is an english text.'
doc = nlp(text)
print(doc._.language)
抛出错误:nlp.add_pipe
现在采用注册组件工厂的字符串名称,而不是可调用组件。
所以我尝试使用下面的方法添加到我的 nlp 管道中
language_detector = LanguageDetector()
nlp.add_pipe("language_detector")
但这给出了错误:无法找到 'language_detector' 语言英语 (en) 的工厂。当 spaCy 使用未在当前语言 class 上注册的自定义组件名称调用 nlp.create_pipe
时,通常会发生这种情况。如果您使用的是 Transformer,请确保安装 'spacy-transformers'。如果您使用的是自定义组件,请确保已添加装饰器 @Language.component
(对于函数组件)或 @Language.factory
(对于 class 组件)。
可用工厂:attribute_ruler、tok2vec、merge_noun_chunks、merge_entities、merge_subtokens、token_splitter、parser、beam_parser、entity_linker、ner , beam_ner, entity_ruler, lemmatizer, tagger, morphologizer, senter, sentencizer, textcat, textcat_multilabel, en.lemmatizer
我不完全理解如何添加它,因为它不是真正的自定义组件。
对于非内置组件(例如 LanguageDetector)的 spaCy v3.0,您必须先将其包装到一个函数中,然后再将其添加到 nlp 管道中。在您的示例中,您可以执行以下操作:
import spacy
from spacy.language import Language
from spacy_langdetect import LanguageDetector
def get_lang_detector(nlp, name):
return LanguageDetector()
nlp = spacy.load("en_core_web_sm")
Language.factory("language_detector", func=get_lang_detector)
nlp.add_pipe('language_detector', last=True)
text = 'This is an english text.'
doc = nlp(text)
print(doc._.language)
对于内置组件(即标记器、解析器、神经网络等),请参阅:https://spacy.io/usage/processing-pipelines
与@Eric 相同,但已向工厂装饰器注册:
import spacy
from spacy.language import Language
from spacy_langdetect import LanguageDetector
@Language.factory("language_detector")
def get_lang_detector(nlp, name):
return LanguageDetector()
nlp = spacy.load("en_core_web_sm")
nlp.add_pipe('language_detector', last=True)
print(nlp("This is an english text.")._.language)