多语言文本语料库的词干提取
Stemming of the multilingual text corpus
我有一个文本语料库,其中包含英语、俄语和波兰语的项目描述。
这个文本语料库有 68K 个观察值。其中一些观察结果是用英语写的,一些是俄语的,还有一些是波兰语的。
你能告诉我如何正确和成本效益 在这种情况下实施词干提取?我不能对俄语单词使用英语词干分析器,反之亦然。
很遗憾,我找不到合适的语言标识符。例如。 langdetect
工作太慢而且经常不正确。例如,我尝试识别英语单词 'today' 的语言:
detect("today")
"so"
# i.e Somali
到目前为止,我的代码实现看起来很糟糕。我只是在另一个上使用一个词干分析器:
import nltk
# polish stemmer
from pymorfologik import Morfologik
clean_items = []
# create stemmers
snowball_en = nltk.SnowballStemmer("english")
snowball_ru = nltk.SnowballStemmer("russian")
stemmer_pl = Morfologik()
# loop over each item; create an index i that goes from 0 to the length
# of the item list
for i in range(0, num_items):
# Call our function for each one, and add the result to the list of
# clean items
cleaned = items.iloc[i]
# to word stem
clean_items.append(snowball_ru.stem(stemmer_pl(snowball_en.stem(cleaned))))
即使 API 不是那么好,您也可以使 langdetect
仅限于您实际使用的语言。例如:
from langdetect.detector_factory import DetectorFactory, PROFILES_DIRECTORY
import os
def get_factory_for(langs):
df = DetectorFactory()
profiles = []
for lang in ['en', 'ru', 'pl']:
with open(os.path.join(PROFILES_DIRECTORY, lang), 'r', encoding='utf-8') as f:
profiles.append(f.read())
df.load_json_profile(profiles)
def _detect_langs(text):
d = df.create()
d.append(text)
return d.get_probabilities()
def _detect(text):
d = df.create()
d.append(text)
return d.detect()
df.detect_langs = _detect_langs
df.detect = _detect
return df
虽然不受限制的 langdetect
似乎认为 "today"
是索马里语,但如果您只会英语、俄语和波兰语,您现在可以这样做:
df = get_factory_for(['en', 'ru', 'pl'])
df.detect('today') # 'en'
df.detect_langs('today') # [en:0.9999988994459187]
它仍然会遗漏很多("snow"
显然是波兰语),但它仍然会大大降低您的错误率。
我有一个文本语料库,其中包含英语、俄语和波兰语的项目描述。
这个文本语料库有 68K 个观察值。其中一些观察结果是用英语写的,一些是俄语的,还有一些是波兰语的。
你能告诉我如何正确和成本效益 在这种情况下实施词干提取?我不能对俄语单词使用英语词干分析器,反之亦然。
很遗憾,我找不到合适的语言标识符。例如。 langdetect
工作太慢而且经常不正确。例如,我尝试识别英语单词 'today' 的语言:
detect("today")
"so"
# i.e Somali
到目前为止,我的代码实现看起来很糟糕。我只是在另一个上使用一个词干分析器:
import nltk
# polish stemmer
from pymorfologik import Morfologik
clean_items = []
# create stemmers
snowball_en = nltk.SnowballStemmer("english")
snowball_ru = nltk.SnowballStemmer("russian")
stemmer_pl = Morfologik()
# loop over each item; create an index i that goes from 0 to the length
# of the item list
for i in range(0, num_items):
# Call our function for each one, and add the result to the list of
# clean items
cleaned = items.iloc[i]
# to word stem
clean_items.append(snowball_ru.stem(stemmer_pl(snowball_en.stem(cleaned))))
即使 API 不是那么好,您也可以使 langdetect
仅限于您实际使用的语言。例如:
from langdetect.detector_factory import DetectorFactory, PROFILES_DIRECTORY
import os
def get_factory_for(langs):
df = DetectorFactory()
profiles = []
for lang in ['en', 'ru', 'pl']:
with open(os.path.join(PROFILES_DIRECTORY, lang), 'r', encoding='utf-8') as f:
profiles.append(f.read())
df.load_json_profile(profiles)
def _detect_langs(text):
d = df.create()
d.append(text)
return d.get_probabilities()
def _detect(text):
d = df.create()
d.append(text)
return d.detect()
df.detect_langs = _detect_langs
df.detect = _detect
return df
虽然不受限制的 langdetect
似乎认为 "today"
是索马里语,但如果您只会英语、俄语和波兰语,您现在可以这样做:
df = get_factory_for(['en', 'ru', 'pl'])
df.detect('today') # 'en'
df.detect_langs('today') # [en:0.9999988994459187]
它仍然会遗漏很多("snow"
显然是波兰语),但它仍然会大大降低您的错误率。