Python Pandas 分组并加入
Python Pandas groupby and join
我是 python pandas 的新手,无法在任何旧帖子中找到我的问题的答案。
我有一个看起来像这样的简单数据框:
dfA ={'stop':[1,2,3,4,5,1610,1611,1612,1613,1614,2915,...]
'seq':[B, B, D, A, C, C, A, B, A, C, A,...] }
现在我想合并每个组的 'seq' 值,其中 'stop' 中的下一个值和上一个值之间的差值等于 1。当差值很大时,如 5 和 1610 ,那是下一个簇开始的地方,依此类推。
我需要的是将每个集群的所有值写入单独的行:
0 BBDAC #join'stop' cluster 1-5
1 CABAC #join'stop' cluster 1610-1614
2 A.... #join'stop' cluster 2015 - ...
etc...
我当前的代码是这样的:
True BDACABAC...
False BCA...
对于整个巨大的数据框。
我理解它合并它的原因背后的逻辑,它满足我指定的条件(不完美,失去集群边缘),但我 运行 没有想法如果我能加入它并且以某种方式正确地分成集群,而不是数据帧的所有行。
请看下面我的代码:
dfB = dfA.groupby((dfA.stop - dfA.stop.shift(1) == 1))['seq'].apply(lambda x: ''.join(x)).reset_index()
请帮忙
P.S。我也尝试过 diff() 的各种组合,但这也没有帮助。我不确定 groupby 是否也适用于此解决方案。请指教!
dfC = dfA.groupby((dfA['stop'].diff(periods=1)))['seq'].apply(lambda x: ''.join(x)).reset_index()
这以某种方式将数据帧拆分成更小的块,类似集群,但我不理解它这样做的方式背后的法律,我知道结果没有意义,也不是我想要得到的。
我认为您需要创建帮助程序 Series
来进行分组:
g = dfA['stop'].diff().ne(1).cumsum()
dfC = dfA.groupby(g)['seq'].apply(''.join).reset_index()
print (dfC)
stop seq
0 1 BBDAC
1 2 CABAC
2 3 A
详情:
首先通过diff
得到差异:
print (dfA['stop'].diff())
0 NaN
1 1.0
2 1.0
3 1.0
4 1.0
5 1605.0
6 1.0
7 1.0
8 1.0
9 1.0
10 1301.0
Name: stop, dtype: float64
比较 ne
(!=)
组的第一个值:
print (dfA['stop'].diff().ne(1))
0 True
1 False
2 False
3 False
4 False
5 True
6 False
7 False
8 False
9 False
10 True
Name: stop, dtype: bool
Asn 上次创建组 cumsum
:
print (dfA['stop'].diff().ne(1).cumsum())
0 1
1 1
2 1
3 1
4 1
5 2
6 2
7 2
8 2
9 2
10 3
Name: stop, dtype: int32
我刚刚弄明白了。
我设法将 'stop' 的值舍入到最接近的 100,并将其分配为新列。
然后我以前的代码正在工作....
非常感谢您的快速回答。
dfA['new_val'] = (dfA['stop'] / 100).astype(int) *100
我是 python pandas 的新手,无法在任何旧帖子中找到我的问题的答案。
我有一个看起来像这样的简单数据框:
dfA ={'stop':[1,2,3,4,5,1610,1611,1612,1613,1614,2915,...]
'seq':[B, B, D, A, C, C, A, B, A, C, A,...] }
现在我想合并每个组的 'seq' 值,其中 'stop' 中的下一个值和上一个值之间的差值等于 1。当差值很大时,如 5 和 1610 ,那是下一个簇开始的地方,依此类推。
我需要的是将每个集群的所有值写入单独的行:
0 BBDAC #join'stop' cluster 1-5
1 CABAC #join'stop' cluster 1610-1614
2 A.... #join'stop' cluster 2015 - ...
etc...
我当前的代码是这样的:
True BDACABAC...
False BCA...
对于整个巨大的数据框。
我理解它合并它的原因背后的逻辑,它满足我指定的条件(不完美,失去集群边缘),但我 运行 没有想法如果我能加入它并且以某种方式正确地分成集群,而不是数据帧的所有行。
请看下面我的代码:
dfB = dfA.groupby((dfA.stop - dfA.stop.shift(1) == 1))['seq'].apply(lambda x: ''.join(x)).reset_index()
请帮忙
P.S。我也尝试过 diff() 的各种组合,但这也没有帮助。我不确定 groupby 是否也适用于此解决方案。请指教!
dfC = dfA.groupby((dfA['stop'].diff(periods=1)))['seq'].apply(lambda x: ''.join(x)).reset_index()
这以某种方式将数据帧拆分成更小的块,类似集群,但我不理解它这样做的方式背后的法律,我知道结果没有意义,也不是我想要得到的。
我认为您需要创建帮助程序 Series
来进行分组:
g = dfA['stop'].diff().ne(1).cumsum()
dfC = dfA.groupby(g)['seq'].apply(''.join).reset_index()
print (dfC)
stop seq
0 1 BBDAC
1 2 CABAC
2 3 A
详情:
首先通过diff
得到差异:
print (dfA['stop'].diff())
0 NaN
1 1.0
2 1.0
3 1.0
4 1.0
5 1605.0
6 1.0
7 1.0
8 1.0
9 1.0
10 1301.0
Name: stop, dtype: float64
比较 ne
(!=)
组的第一个值:
print (dfA['stop'].diff().ne(1))
0 True
1 False
2 False
3 False
4 False
5 True
6 False
7 False
8 False
9 False
10 True
Name: stop, dtype: bool
Asn 上次创建组 cumsum
:
print (dfA['stop'].diff().ne(1).cumsum())
0 1
1 1
2 1
3 1
4 1
5 2
6 2
7 2
8 2
9 2
10 3
Name: stop, dtype: int32
我刚刚弄明白了。 我设法将 'stop' 的值舍入到最接近的 100,并将其分配为新列。 然后我以前的代码正在工作.... 非常感谢您的快速回答。
dfA['new_val'] = (dfA['stop'] / 100).astype(int) *100