Pandas 向后重采样时间序列(或反向重采样)
Pandas resample time series counting backwards (or reverse resample)
我想对倒数的 pandas 时间序列重新采样。例如,让我们设置一个简单的 11 天时间序列:
>>> index = pd.date_range('01-01-2018', '01-11-2018', freq='D')
>>> randint = np.random.randint(low=0, high=9, size=(len(index), 1))
>>> df = pd.DataFrame(randint, index=index, columns=['random'])
>>> print(df)
random
2018-01-01 8
2018-01-02 8
2018-01-03 1
2018-01-04 4
2018-01-05 3
2018-01-06 5
2018-01-07 2
2018-01-08 6
2018-01-09 5
2018-01-10 1
2018-01-11 3
默认pandas行为
如果我每 5 天重新采样一次,我会得到:
>>> df_5d = df.resample('5D').sum()
>>> print(df_5d)
random
2018-01-01 24
2018-01-06 19
2018-01-11 3
基本上你有 3 个分组:前两个组有 5 个成员,最后一个组有 1 个,总共有 11 个成员:
Start End
2018-01-01 2018-01-05
2018-01-06 2018-01-10
2018-01-11 2018-01-11
我要的是这个
>>> df_5d = df.resample('5D').sum()
>>> print(df_5d)
random
2018-01-01 8
2018-01-02 21
2018-01-07 17
分组如下所示。看看我是如何从最近的日期开始倒数 '5D'
的:
Start End
2018-01-01 2018-01-01
2018-01-02 2018-01-06
2018-01-07 2018-01-11
如何对倒数的 pandas 时间序列重新采样?
你可以使用
In [452]: t = np.arange(len(df.index)-1, -1, -1) // 5
In [453]: df.reset_index().groupby(t, sort=False)['index'].agg([min, max])
Out[453]:
min max
2 2018-01-01 2018-01-01
1 2018-01-02 2018-01-06
0 2018-01-07 2018-01-11
解决方法是将原始 df
一分为二,以便能够使用标准重采样,然后 pd.concat
两个重采样数据帧,例如:
res_interval = 5
df_res = pd.concat([df[:len(df)%res_interval].resample('{}D'.format(res_interval)).sum(),
df[len(df)%res_interval:].resample('{}D'.format(res_interval)).sum()])
用我的随机数,我得到:
random
2018-01-01 1
2018-01-02 13
2018-01-07 26
我想我找到了一个非常简单的解决方案:
您可以按时间降序对时间序列进行排序,然后进行重采样。
index = pd.date_range('01-01-2018', '01-11-2018', freq='D')
randint = np.random.randint(low=0, high=9, size=(len(index), 1))
df = pd.DataFrame(randint, index=index, columns=['random'])
print(df)
random
2018-01-01 0
2018-01-02 4
2018-01-03 6
2018-01-04 8
2018-01-05 3
2018-01-06 8
2018-01-07 3
2018-01-08 4
2018-01-09 5
2018-01-10 5
2018-01-11 4
使用label和closed ='right',你告诉resample第一天应该被考虑在求和值的区间内,并且它应该被用作索引的标签。
print(df.sort_index(ascending=False).resample('5D',label='right',closed='right').sum())
random
2018-01-01 0
2018-01-06 29
2018-01-11 21
我想对倒数的 pandas 时间序列重新采样。例如,让我们设置一个简单的 11 天时间序列:
>>> index = pd.date_range('01-01-2018', '01-11-2018', freq='D')
>>> randint = np.random.randint(low=0, high=9, size=(len(index), 1))
>>> df = pd.DataFrame(randint, index=index, columns=['random'])
>>> print(df)
random
2018-01-01 8
2018-01-02 8
2018-01-03 1
2018-01-04 4
2018-01-05 3
2018-01-06 5
2018-01-07 2
2018-01-08 6
2018-01-09 5
2018-01-10 1
2018-01-11 3
默认pandas行为
如果我每 5 天重新采样一次,我会得到:
>>> df_5d = df.resample('5D').sum()
>>> print(df_5d)
random
2018-01-01 24
2018-01-06 19
2018-01-11 3
基本上你有 3 个分组:前两个组有 5 个成员,最后一个组有 1 个,总共有 11 个成员:
Start End
2018-01-01 2018-01-05
2018-01-06 2018-01-10
2018-01-11 2018-01-11
我要的是这个
>>> df_5d = df.resample('5D').sum()
>>> print(df_5d)
random
2018-01-01 8
2018-01-02 21
2018-01-07 17
分组如下所示。看看我是如何从最近的日期开始倒数 '5D'
的:
Start End
2018-01-01 2018-01-01
2018-01-02 2018-01-06
2018-01-07 2018-01-11
如何对倒数的 pandas 时间序列重新采样?
你可以使用
In [452]: t = np.arange(len(df.index)-1, -1, -1) // 5
In [453]: df.reset_index().groupby(t, sort=False)['index'].agg([min, max])
Out[453]:
min max
2 2018-01-01 2018-01-01
1 2018-01-02 2018-01-06
0 2018-01-07 2018-01-11
解决方法是将原始 df
一分为二,以便能够使用标准重采样,然后 pd.concat
两个重采样数据帧,例如:
res_interval = 5
df_res = pd.concat([df[:len(df)%res_interval].resample('{}D'.format(res_interval)).sum(),
df[len(df)%res_interval:].resample('{}D'.format(res_interval)).sum()])
用我的随机数,我得到:
random
2018-01-01 1
2018-01-02 13
2018-01-07 26
我想我找到了一个非常简单的解决方案:
您可以按时间降序对时间序列进行排序,然后进行重采样。
index = pd.date_range('01-01-2018', '01-11-2018', freq='D')
randint = np.random.randint(low=0, high=9, size=(len(index), 1))
df = pd.DataFrame(randint, index=index, columns=['random'])
print(df)
random
2018-01-01 0
2018-01-02 4
2018-01-03 6
2018-01-04 8
2018-01-05 3
2018-01-06 8
2018-01-07 3
2018-01-08 4
2018-01-09 5
2018-01-10 5
2018-01-11 4
使用label和closed ='right',你告诉resample第一天应该被考虑在求和值的区间内,并且它应该被用作索引的标签。
print(df.sort_index(ascending=False).resample('5D',label='right',closed='right').sum())
random
2018-01-01 0
2018-01-06 29
2018-01-11 21