Python 中 R 的 removeSparseTerms 的等价物

Equivalent of R's removeSparseTerms in Python

我们正在进行一个数据挖掘项目,并使用 R 中 tm 包中的 removeSparseTerms 函数来减少文档术语矩阵的特征。

但是,我们希望将代码移植到 python。 sklearn、nltk 或其他包中是否有可以提供相同功能的函数?

谢谢!

如果您的数据是纯文本,您可以使用 CountVectorizer 来完成这项工作。

例如:

from sklearn.feature_extraction.text import CountVectorizer
vectorizer = CountVectorizer(min_df=2)
corpus = [
    'This is the first document.',
    'This is the second second document.',
    'And the third one.',
    'Is this the first document?',
]
vectorizer = vectorizer.fit(corpus)
print vectorizer.vocabulary_ 
#prints {u'this': 4, u'is': 2, u'the': 3, u'document': 0, u'first': 1}
X = vectorizer.transform(corpus)

现在 X 是文档术语矩阵。 (如果你对信息检索感兴趣,你还想考虑 Tf–idf term weighting

它可以帮助您通过几行代码轻松获得文档术语矩阵。

关于稀疏性——您可以控制这些参数:

  • min_df - 文档-术语矩阵中术语允许的最小文档频率。
  • max_features - 文档-术语矩阵中允许的最大特征数

或者,如果您已经有了文档-术语矩阵或 Tf-idf 矩阵,并且您有稀疏的概念,请定义 MIN_VAL_ALLOWED,然后执行以下操作:

import numpy as np
from scipy.sparse import csr_matrix
MIN_VAL_ALLOWED = 2

X = csr_matrix([[7,8,0],
                [2,1,1],
                [5,5,0]])

z = np.squeeze(np.asarray(X.sum(axis=0) > MIN_VAL_ALLOWED)) #z is the non-sparse terms 

print X[:,z].toarray()
#prints X without the third term (as it is sparse)
[[7 8]
[2 1]
[5 5]]

(使用 X = X[:,z] 所以 X 仍然是 csr_matrix。)

如果它是最小文档频率你想设置一个阈值,矩阵首先,然后以相同的方式使用它:

import numpy as np
from scipy.sparse import csr_matrix

MIN_DF_ALLOWED = 2

X = csr_matrix([[7, 1.3, 0.9, 0],
                [2, 1.2, 0.8  , 1],
                [5, 1.5, 0  , 0]])

#Creating a copy of the data
B = csr_matrix(X, copy=True)
B[B>0] = 1
z = np.squeeze(np.asarray(X.sum(axis=0) > MIN_DF_ALLOWED))
print  X[:,z].toarray()
#prints
[[ 7.   1.3]
[ 2.   1.2]
[ 5.   1.5]]

在此示例中,第三个和第四个术语(或列)消失了,因为它们只出现在两个文档(行)中。使用MIN_DF_ALLOWED设置阈值。