如何在 pandas 中加速条件 groupby 总和

how to speed up conditional groupby sum in pandas

我有一个包含大量行的数据框,我想对这个数据框进行条件分组。

这是我的数据框和代码的示例:

import pandas as pd

data = {'Case': [1, 1, 1, 1, 1, 1],
        'Id': [1, 1, 1, 1, 2, 2],
        'Date1': ['2020-01-01', '2020-01-01', '2020-02-01', '2020-02-01', '2020-01-01', '2020-01-01'],
        'Date2': ['2020-01-01', '2020-02-01', '2020-01-01', '2020-02-01', '2020-01-01', '2020-02-01'],
        'Quantity': [50,100,150,20,30,35]
        }

df = pd.DataFrame(data)

df['Date1'] = pd.to_datetime(df['Date1'])
df['Date2'] = pd.to_datetime(df['Date2'])

sum_list = []


for d in df['Date1'].unique():
    temp = df.groupby(['Case','Id']).apply(lambda x: x[(x['Date2'] == d) & (x['Date1']<d)]['Quantity'].sum()).rename('sum').to_frame()
    temp['Date'] = d
    sum_list.append(temp)
    

output = pd.concat(sum_list, axis=0).reset_index()

当我将此 for 循环应用于真实数据帧时,它非常慢。我想找到一种更好的方法来执行此条件 groupby 求和操作。这是我的问题:

  1. for 循环是完成我这里需要的事情的好方法吗?
  2. 有没有更好的方法来替换 for 循环中的第 1 行;
  3. 感觉for循环里的第2行也很耗时,应该怎么改进

感谢您的帮助。

apply 是慢的。尽可能避免它。

我用你的小片段测试了这个,它给出了正确的答案。您需要使用真实数据进行更彻底的测试:

case = df["Case"].unique()
id_= df["Id"].unique()
d = df["Date1"].unique()
index = pd.MultiIndex.from_product([case, id_, d], names=["Case", "Id", "Date"])

# Sum only rows whose Date2 belong to a specific list of dates
# This is equivalent to `x['Date2'] == d` in your original code
cond = df["Date2"].isin(d)
tmp = df[cond].groupby(["Case", "Id", "Date1", "Date2"], as_index=False).sum()

# Select only those sums where Date1 < Date2 and sum again
# This takes care of the `x['Date1'] < d` condition
cond = tmp["Date1"] < tmp["Date2"]
output = tmp[cond].groupby(["Case", "Id", "Date2"]).sum().reindex(index, fill_value=0).reset_index()

另一个解决方案:

x = df.groupby(["Case", "Id", "Date1"], as_index=False).apply(
    lambda x: x.loc[x["Date1"] < x["Date2"], "Quantity"].sum()
)

print(
    x.pivot(index=["Case", "Id"], columns="Date1", values=None)
    .fillna(0)
    .melt(ignore_index=False)
    .drop(columns=[None])
    .reset_index()
    .rename(columns={"Date1": "Date", "value":"sum"})
)

打印:

   Case  Id       Date    sum
0     1   1 2020-01-01  100.0
1     1   2 2020-01-01   35.0
2     1   1 2020-02-01    0.0
3     1   2 2020-02-01    0.0

一个选项是双重合并和分组:

date = pd.Series(df.Date1.unique(), name='Date')
step1 = df.merge(date, left_on = 'Date2', right_on = 'Date', how = 'outer')
step2 = step1.loc[step1.Date1 < step1.Date]
step2 = step2.groupby(['Case', 'Id', 'Date']).agg(sum=('Quantity','sum'))
(df
.loc[:, ['Case', 'Id', 'Date2']]
.drop_duplicates()
.rename(columns={'Date2':'Date'})
.merge(step2, how = 'left', on = ['Case', 'Id', 'Date'])
.fillna({'sum': 0}, downcast='infer')
)

   Case  Id       Date  sum
0     1   1 2020-01-01    0
1     1   1 2020-02-01  100
2     1   2 2020-01-01    0
3     1   2 2020-02-01   35