如何从字符串的 DataFrame 列中获取唯一的单词?

How can I get unique words from a DataFrame column of strings?

我正在寻找一种方法来获取 DataFrame 中字符串列中的唯一单词列表。

import pandas as pd
import numpy as np

df = pd.read_csv('FinalStemmedSentimentAnalysisDataset.csv', sep=';',dtype= 
       {'tweetId':int,'tweetText':str,'tweetDate':str,'sentimentLabel':int})

tweets = {}
tweets[0] = df[df['sentimentLabel'] == 0]
tweets[1] = df[df['sentimentLabel'] == 1]

我使用的数据集来自这个link:http://thinknook.com/twitter-sentiment-analysis-training-corpus-dataset-2012-09-22/

我得到了这个包含可变长度字符串的列,我想得到列中每个唯一单词的列表及其计数,我怎样才能得到它?我在 python 中使用 Pandas 并且原始数据库有超过 100 万行,所以我还需要一些有效的方法来足够快地处理这个问题并且不要让代码成为 运行 太久.

列示例可以是:

[is,so,sad,for,my,apl,friend,omg,this,terrible,what,new,song]

如果您在列中有字符串,那么您必须将每个句子拆分为单词列表,然后将所有列表放在一个列表中 - 您可以为此使用它 sum() - 它应该会为您提供所有单词.要获得独特的单词,您可以将其转换为 set() - 稍后您可以转换回 list()

但一开始你必须清理句子以删除 .? 等字符。我使用 regex 只保留一些字符和 space .最终你将不得不将所有单词转换为小写或大写。

import pandas as pd

df = pd.DataFrame({
    'sentences': [
        'is so sad for my apl friend.',
        'omg this is terrible.',
        'what is this new song?',
    ]
})

unique = set(df['sentences'].str.replace('[^a-zA-Z ]', '').str.lower().str.split(' ').sum())

print(list(sorted(unique)))

结果

['apl', 'for', 'friend', 'is', 'my', 'new', 'omg', 'sad', 'so', 'song', 'terrible', 'this', 'what']

编辑: 正如评论中提到的@HenryYik - findall('\w+') 可以代替 split() 也可以代替 replace()

unique = set(df['sentences'].str.lower().str.findall("\w+").sum())

编辑: 我用

的数据测试了它

http://thinknook.com/twitter-sentiment-analysis-training-corpus-dataset-2012-09-22/

column.sum()sum(column) 外,所有工作都很快 - 我测量了 1000 行的时间并计算了 1 500 000 行,它需要 35 分钟。

使用 itertools.chain() 要快得多 - 大约需要 8 秒。

import itertools

words = df['sentences'].str.lower().str.findall("\w+")
words = list(itertools.chain(words))
unique = set(words)

但可以直接转换为set()

words = df['sentences'].str.lower().str.findall("\w+")

unique = set()

for x in words:
    unique.update(x)

大约需要 5 秒


完整代码:

import pandas as pd
import time 

print(time.strftime('%H:%M:%S'), 'start')

print('-----')
#------------------------------------------------------------------------------

start = time.time()

# `read_csv()` can read directly from internet and compressed to zip
#url = 'http://thinknook.com/wp-content/uploads/2012/09/Sentiment-Analysis-Dataset.zip'
url = 'SentimentAnalysisDataset.csv'

# need to skip two rows which are incorrect
df = pd.read_csv(url, sep=',', dtype={'ItemID':int, 'Sentiment':int, 'SentimentSource':str, 'SentimentText':str}, skiprows=[8835, 535881])

end = time.time()
print(time.strftime('%H:%M:%S'), 'load:', end-start, 's')

print('-----')
#------------------------------------------------------------------------------

start = end

words = df['SentimentText'].str.lower().str.findall("\w+")
#df['words'] = words

end = time.time()
print(time.strftime('%H:%M:%S'), 'words:', end-start, 's')

print('-----')
#------------------------------------------------------------------------------

start = end

unique = set()
for x in words:
    unique.update(x)

end = time.time()
print(time.strftime('%H:%M:%S'), 'set:', end-start, 's')

print('-----')
#------------------------------------------------------------------------------

print(list(sorted(unique))[:10])

结果

00:27:04 start
-----
00:27:08 load: 4.10780930519104 s
-----
00:27:23 words: 14.803470849990845 s
-----
00:27:27 set: 4.338541269302368 s
-----
['0', '00', '000', '0000', '00000', '000000000000', '0000001', '000001', '000014', '00004873337e0033fea60']