使用 groupby 进行字数统计然后使用 python 循环的问题
Problems using groupby for word count then loop using python
字数和累计总和
我的数据集高达 150 万行。该数据集是一个时间序列,格式如下所示。我正在尝试以累积格式计算每年的字符串。示例如下:
lodgement_year trademark_text
1906 PEPS
1906 BILE BEANS FOR BILIOUSNESS B
1906 ZAM-BUK Z
lodgement_year
1906 {PEPS BILE BEANS FOR BILIOUSNESS B ZAM-BUK Z Z...
1907 {WHS CHERUB BLACK & WHITE SOUTHERN CROSS HISTO...
作为初始任务,我对字符串进行了分组,然后使用 xxx 在此论坛中发布的代码在全年中应用了一个循环。当循环工作时,以下消息紧随其后出现:
The code :
d = df_merge.groupby('lodgement_year')['trademark_text'].apply(lambda x: "{%s}" % ' '.join(x))
for name in d.index:
data = d.loc[name]
ngram_vectorizer = CountVectorizer(analyzer='word',tokenizer=word_tokenize, ngram_range=(1, 1), min_df=1)
X = ngram_vectorizer.fit_transform(data.split('\n'))
vocab = list(ngram_vectorizer.get_feature_names())
counts = X.sum(axis=0).A1
freq_distribution = Counter(dict(zip(vocab, counts)))
print (name, freq_distribution.most_common(10))
错误信息:
回溯(最近调用最后):
文件“/Users/PycharmProjects/Slice_Time_Series”,第 65 行,位于
X = ngram_vectorizer.fit_transform(data.split('\n'))
文件“/Users/anaconda3/lib/python3.6/site-packages/pandas/core/generic.py”,第 3081 行,在 getattr 中
return object.getattribute(self, name)
AttributeError: 'Series' 对象没有属性 'split'
错误前有效的输出:
1906 [('.', 24), ("'s", 22), ('star', 18), ('&', 15), ('kodak', 12), ('co', 9), ('the', 9), ('brand', 8), ('express', 8), ('anchor', 6)]
1907 [('&', 11), ("'s", 11), ('brand', 11), ('pinnacle', 7), ('vaseline', 7), ('the', 6), ('.', 5), ('co.', 5), ('kepler', 5), ('lucas', 5)]
任何帮助将不胜感激。作为下一个任务,我正在尝试创建一个系列,该系列是 1906 然后 1906 加 1907 然后 1906+1907+1908 的总和我还不知道该做什么,任何指导也很好。
伊恩
您可以先按寄存变量对 DF 进行分组,然后遍历名称-组对,再进行一次分组,最后加入结果。
import pandas as pd
from collections import Counter
df = pd.DataFrame({'lodg':[1,2,1,3,1,2,2,3,1,1],
'text':['x y z','y y','x y','z x','y x','y y z','x z','x x','x x','y z']})
grouped = df.groupby('lodg')
joined = []
for name, group in grouped:
texts = " ".join(group['text'])
groupCounts = Counter(texts.split(" ")).items()
joined.append([name, [texts], groupCounts])
groupedJoined = pd.DataFrame(joined, columns = ['lodg','texts','textCounts'])
结果:
In [16]: groupedJoined
Out[16]:
lodg texts textCounts
0 1 [x y z x y y x x x y z] [(y, 4), (x, 5), (z, 2)]
1 2 [y y y y z x z] [(y, 4), (x, 1), (z, 2)]
2 3 [z x x x] [(x, 3), (z, 1)]
显式求解后,想出1-liner lambda解法花了点时间
两个 Lambda:
df.groupby('lodg')['text'].apply(lambda x: "%s" % ' '.join(x)).apply(lambda x: Counter(x.split(" ")).items())
单个 Lambda:
df.groupby('lodg')['text'].apply(lambda x: Counter((' '.join(x)).split(" ")).items())
两者产生相同的结果:
Out[62]:
lodg
1 [(y, 4), (x, 5), (z, 2)]
2 [(y, 4), (x, 1), (z, 2)]
3 [(x, 3), (z, 1)]
Name: text, dtype: object
现在,如果您不想处理未命名的列(实际上称为索引),请将结果命名为 res
,然后执行 res.reset_index()
以获得此结果:
In [68]: res.reset_index()
Out[68]:
lodg text
0 1 [(y, 4), (x, 5), (z, 2)]
1 2 [(y, 4), (x, 1), (z, 2)]
2 3 [(x, 3), (z, 1)]
这应该更容易使用。
字数和累计总和
我的数据集高达 150 万行。该数据集是一个时间序列,格式如下所示。我正在尝试以累积格式计算每年的字符串。示例如下:
lodgement_year trademark_text
1906 PEPS
1906 BILE BEANS FOR BILIOUSNESS B
1906 ZAM-BUK Z
lodgement_year
1906 {PEPS BILE BEANS FOR BILIOUSNESS B ZAM-BUK Z Z...
1907 {WHS CHERUB BLACK & WHITE SOUTHERN CROSS HISTO...
作为初始任务,我对字符串进行了分组,然后使用 xxx 在此论坛中发布的代码在全年中应用了一个循环。当循环工作时,以下消息紧随其后出现:
The code :
d = df_merge.groupby('lodgement_year')['trademark_text'].apply(lambda x: "{%s}" % ' '.join(x))
for name in d.index:
data = d.loc[name]
ngram_vectorizer = CountVectorizer(analyzer='word',tokenizer=word_tokenize, ngram_range=(1, 1), min_df=1)
X = ngram_vectorizer.fit_transform(data.split('\n'))
vocab = list(ngram_vectorizer.get_feature_names())
counts = X.sum(axis=0).A1
freq_distribution = Counter(dict(zip(vocab, counts)))
print (name, freq_distribution.most_common(10))
错误信息:
回溯(最近调用最后):
文件“/Users/PycharmProjects/Slice_Time_Series”,第 65 行,位于 X = ngram_vectorizer.fit_transform(data.split('\n'))
文件“/Users/anaconda3/lib/python3.6/site-packages/pandas/core/generic.py”,第 3081 行,在 getattr 中 return object.getattribute(self, name) AttributeError: 'Series' 对象没有属性 'split'
错误前有效的输出:
1906 [('.', 24), ("'s", 22), ('star', 18), ('&', 15), ('kodak', 12), ('co', 9), ('the', 9), ('brand', 8), ('express', 8), ('anchor', 6)]
1907 [('&', 11), ("'s", 11), ('brand', 11), ('pinnacle', 7), ('vaseline', 7), ('the', 6), ('.', 5), ('co.', 5), ('kepler', 5), ('lucas', 5)]
任何帮助将不胜感激。作为下一个任务,我正在尝试创建一个系列,该系列是 1906 然后 1906 加 1907 然后 1906+1907+1908 的总和我还不知道该做什么,任何指导也很好。
伊恩
您可以先按寄存变量对 DF 进行分组,然后遍历名称-组对,再进行一次分组,最后加入结果。
import pandas as pd
from collections import Counter
df = pd.DataFrame({'lodg':[1,2,1,3,1,2,2,3,1,1],
'text':['x y z','y y','x y','z x','y x','y y z','x z','x x','x x','y z']})
grouped = df.groupby('lodg')
joined = []
for name, group in grouped:
texts = " ".join(group['text'])
groupCounts = Counter(texts.split(" ")).items()
joined.append([name, [texts], groupCounts])
groupedJoined = pd.DataFrame(joined, columns = ['lodg','texts','textCounts'])
结果:
In [16]: groupedJoined
Out[16]:
lodg texts textCounts
0 1 [x y z x y y x x x y z] [(y, 4), (x, 5), (z, 2)]
1 2 [y y y y z x z] [(y, 4), (x, 1), (z, 2)]
2 3 [z x x x] [(x, 3), (z, 1)]
显式求解后,想出1-liner lambda解法花了点时间
两个 Lambda:
df.groupby('lodg')['text'].apply(lambda x: "%s" % ' '.join(x)).apply(lambda x: Counter(x.split(" ")).items())
单个 Lambda:
df.groupby('lodg')['text'].apply(lambda x: Counter((' '.join(x)).split(" ")).items())
两者产生相同的结果:
Out[62]:
lodg
1 [(y, 4), (x, 5), (z, 2)]
2 [(y, 4), (x, 1), (z, 2)]
3 [(x, 3), (z, 1)]
Name: text, dtype: object
现在,如果您不想处理未命名的列(实际上称为索引),请将结果命名为 res
,然后执行 res.reset_index()
以获得此结果:
In [68]: res.reset_index()
Out[68]:
lodg text
0 1 [(y, 4), (x, 5), (z, 2)]
1 2 [(y, 4), (x, 1), (z, 2)]
2 3 [(x, 3), (z, 1)]
这应该更容易使用。