如何在朴素贝叶斯中获得特征重要性?
How to get feature Importance in naive bayes?
我有一个评论数据集,其 class 标签为 positive/negative。我正在将朴素贝叶斯应用于该评论数据集。首先,我正在转换成词袋。这里sorted_data['Text']是评论,final_counts是稀疏矩阵
count_vect = CountVectorizer()
final_counts = count_vect.fit_transform(sorted_data['Text'].values)
我正在将数据拆分为训练数据集和测试数据集。
X_1, X_test, y_1, y_test = cross_validation.train_test_split(final_counts, labels, test_size=0.3, random_state=0)
我正在应用朴素贝叶斯算法如下
optimal_alpha = 1
NB_optimal = BernoulliNB(alpha=optimal_aplha)
# fitting the model
NB_optimal.fit(X_tr, y_tr)
# predict the response
pred = NB_optimal.predict(X_test)
# evaluate accuracy
acc = accuracy_score(y_test, pred) * 100
print('\nThe accuracy of the NB classifier for k = %d is %f%%' % (optimal_aplha, acc))
这里 X_test 是测试数据集,其中 pred 变量告诉我们 X_test 中的向量是正数还是负数 class.
X_test形状是(54626行,82343维)
pred 的长度为 54626
我的问题是我想得到每个向量中概率最高的词,这样我就可以通过这些词来了解为什么它预测为正或负class。那么,如何得到每个向量中概率最大的词呢?
试试这个:
pred_proba = NB_optimal.predict_proba(X_test)
words = np.take(count_vect.get_feature_names(), pred_proba.argmax(axis=1))
您可以使用 coefs_
或 feature_log_prob_
属性从拟合模型中获取每个词的重要性。例如
neg_class_prob_sorted = NB_optimal.feature_log_prob_[0, :].argsort()[::-1]
pos_class_prob_sorted = NB_optimal.feature_log_prob_[1, :].argsort()[::-1]
print(np.take(count_vect.get_feature_names(), neg_class_prob_sorted[:10]))
print(np.take(count_vect.get_feature_names(), pos_class_prob_sorted[:10]))
为每个 类 输出前 10 个最具预测性的词。
我遇到了同样的麻烦,也许这是数据科学交流论坛,但我想post在这里,因为我取得了很好的成绩。
首先:
+ 代表正 class ,
- 代表否定 class。
P()代表概率。
我们要建立比值比,可以证明它等于
P(word i ,+) / P(word i ,-) (如果你需要它的演示,请告诉我)。
如果这个比值大于1就说明第i个词出现的可能性更大
在正面文本中比在负面文本中。
这些是朴素贝叶斯模型中的先验:
prob_pos = df_train['y'].value_counts()[0]/len(df_train)
prob_neg = df_train['y'].value_counts()[1]/len(df_train)
创建用于存储单词的数据框
df_nbf = pd.DataFrame()
df_nbf.index = count_vect.get_feature_names()
# Convert log probabilities to probabilities.
df_nbf['pos'] = np.e**(nb.feature_log_prob_[0, :])
df_nbf['neg'] = np.e**(nb.feature_log_prob_[1, :])
df_nbf['odds_positive'] = (nb.feature_log_prob_[0, :])/(nb.feature_log_prob_[1, :])*(prob_nonneg/prob_neg)
df_nbf['odds_negative'] = (nb.feature_log_prob_[1, :])/(nb.feature_log_prob_[0, :])*(prob_neg/prob_nonneg)
最重要的词。这将使您的比率大于 1。例如一个
odds_ratio_negative =2 for the word "damn" 表示这个词
当评论或您的 class 比较负面时,可能会发生两倍
用你的积极 class。
# Here are the top5 most important words of your positive class:
odds_pos_top5 = df_nbf.sort_values('odds_positive',ascending=False)['odds_positive'][:5]
# Here are the top5 most important words of your negative class:
odds_neg_top5 = df_nbf.sort_values('odds_negative',ascending=False)['odds_negative'][:5]
def get_salient_words(nb_clf, vect, class_ind):
"""Return salient words for given class
Parameters
----------
nb_clf : a Naive Bayes classifier (e.g. MultinomialNB, BernoulliNB)
vect : CountVectorizer
class_ind : int
Returns
-------
list
a sorted list of (word, log prob) sorted by log probability in descending order.
"""
words = vect.get_feature_names()
zipped = list(zip(words, nb_clf.feature_log_prob_[class_ind]))
sorted_zip = sorted(zipped, key=lambda t: t[1], reverse=True)
return sorted_zip
neg_salient_top_20 = get_salient_words(NB_optimal, count_vect, 0)[:20]
pos_salient_top_20 = get_salient_words(NB_optimal, count_vect, 1)[:20]
我有一个评论数据集,其 class 标签为 positive/negative。我正在将朴素贝叶斯应用于该评论数据集。首先,我正在转换成词袋。这里sorted_data['Text']是评论,final_counts是稀疏矩阵
count_vect = CountVectorizer()
final_counts = count_vect.fit_transform(sorted_data['Text'].values)
我正在将数据拆分为训练数据集和测试数据集。
X_1, X_test, y_1, y_test = cross_validation.train_test_split(final_counts, labels, test_size=0.3, random_state=0)
我正在应用朴素贝叶斯算法如下
optimal_alpha = 1
NB_optimal = BernoulliNB(alpha=optimal_aplha)
# fitting the model
NB_optimal.fit(X_tr, y_tr)
# predict the response
pred = NB_optimal.predict(X_test)
# evaluate accuracy
acc = accuracy_score(y_test, pred) * 100
print('\nThe accuracy of the NB classifier for k = %d is %f%%' % (optimal_aplha, acc))
这里 X_test 是测试数据集,其中 pred 变量告诉我们 X_test 中的向量是正数还是负数 class.
X_test形状是(54626行,82343维)
pred 的长度为 54626
我的问题是我想得到每个向量中概率最高的词,这样我就可以通过这些词来了解为什么它预测为正或负class。那么,如何得到每个向量中概率最大的词呢?
试试这个:
pred_proba = NB_optimal.predict_proba(X_test)
words = np.take(count_vect.get_feature_names(), pred_proba.argmax(axis=1))
您可以使用 coefs_
或 feature_log_prob_
属性从拟合模型中获取每个词的重要性。例如
neg_class_prob_sorted = NB_optimal.feature_log_prob_[0, :].argsort()[::-1]
pos_class_prob_sorted = NB_optimal.feature_log_prob_[1, :].argsort()[::-1]
print(np.take(count_vect.get_feature_names(), neg_class_prob_sorted[:10]))
print(np.take(count_vect.get_feature_names(), pos_class_prob_sorted[:10]))
为每个 类 输出前 10 个最具预测性的词。
我遇到了同样的麻烦,也许这是数据科学交流论坛,但我想post在这里,因为我取得了很好的成绩。
首先: + 代表正 class , - 代表否定 class。 P()代表概率。
我们要建立比值比,可以证明它等于 P(word i ,+) / P(word i ,-) (如果你需要它的演示,请告诉我)。 如果这个比值大于1就说明第i个词出现的可能性更大 在正面文本中比在负面文本中。
这些是朴素贝叶斯模型中的先验:
prob_pos = df_train['y'].value_counts()[0]/len(df_train)
prob_neg = df_train['y'].value_counts()[1]/len(df_train)
创建用于存储单词的数据框
df_nbf = pd.DataFrame()
df_nbf.index = count_vect.get_feature_names()
# Convert log probabilities to probabilities.
df_nbf['pos'] = np.e**(nb.feature_log_prob_[0, :])
df_nbf['neg'] = np.e**(nb.feature_log_prob_[1, :])
df_nbf['odds_positive'] = (nb.feature_log_prob_[0, :])/(nb.feature_log_prob_[1, :])*(prob_nonneg/prob_neg)
df_nbf['odds_negative'] = (nb.feature_log_prob_[1, :])/(nb.feature_log_prob_[0, :])*(prob_neg/prob_nonneg)
最重要的词。这将使您的比率大于 1。例如一个 odds_ratio_negative =2 for the word "damn" 表示这个词 当评论或您的 class 比较负面时,可能会发生两倍 用你的积极 class。
# Here are the top5 most important words of your positive class:
odds_pos_top5 = df_nbf.sort_values('odds_positive',ascending=False)['odds_positive'][:5]
# Here are the top5 most important words of your negative class:
odds_neg_top5 = df_nbf.sort_values('odds_negative',ascending=False)['odds_negative'][:5]
def get_salient_words(nb_clf, vect, class_ind):
"""Return salient words for given class
Parameters
----------
nb_clf : a Naive Bayes classifier (e.g. MultinomialNB, BernoulliNB)
vect : CountVectorizer
class_ind : int
Returns
-------
list
a sorted list of (word, log prob) sorted by log probability in descending order.
"""
words = vect.get_feature_names()
zipped = list(zip(words, nb_clf.feature_log_prob_[class_ind]))
sorted_zip = sorted(zipped, key=lambda t: t[1], reverse=True)
return sorted_zip
neg_salient_top_20 = get_salient_words(NB_optimal, count_vect, 0)[:20]
pos_salient_top_20 = get_salient_words(NB_optimal, count_vect, 1)[:20]