CountVectorizer 给出错误的单词计数?

CountVectorizer giving wrong counts for words?

假设我的文本文件包含以下文本:

The quick brown fox jumped over the lazy dogs. A stitch in time saves nine. The quick brown stitch jumped over the lazy time. The fox in time saves a dog.

我想使用 sk-learn 的 CountVectorizer 来获取文件中所有单词的单词计数。 (我知道还有其他方法可以做到这一点,但出于某些原因我想使用 CountVectorizer。)这是我的代码:

from nltk.corpus import stopwords
from sklearn.feature_extraction.text import CountVectorizer

text = input('Please enter the filepath for the text: ') 
text = open(text, 'r', encoding = 'utf-8')
tokens = CountVectorizer(analyzer = 'word', stop_words = 'english')


X = tokens.fit_transform(text)
dictionary = tokens.vocabulary_

除了当我调用 dictionary 时,它给了我错误的计数:

>>> dictionary
{'time': 9, 'dog': 1, 'stitch': 8, 'quick': 6, 'lazy': 5, 'brown': 0, 'saves': 7, 'jumped': 4, 'fox': 3, 'dogs': 2}

任何人都可以就我在这里犯的(无疑是明显的)错误提出建议吗?

vocabulary_ 是 dict/mapping 项在文档项矩阵中的索引,而不是计数:

vocabulary_ : A mapping of terms to feature indices.

X 实际上为您提供了特征索引矩阵和相应的计数。

>>> for i in X:
...    print(i)
... 
  (0, 1)    1
  (0, 7)    2
  (0, 9)    3
  (0, 8)    2
  (0, 2)    1
  (0, 5)    2
  (0, 4)    2
  (0, 3)    2
  (0, 0)    2
  (0, 6)    2

例如9 -> 'time' 计数为 3。