按列的计数筛选 Pandas df 并写入数据
Filter Pandas df by count of a column and write data
我有一个社交媒体帖子数据集,我试图按 user_id
大于 1 的频率(发布 2 次或更多次的用户)对其进行过滤。我想对此进行过滤,以便进一步清理正在创建的轨迹数据。
示例代码:
# Import Data
data = pd.read_csv('path', delimiter=',', engine='python')
#print len(data),"rows"
#print data
# Create Data Fame
df = pd.DataFrame(data, columns=['user_id','timestamp','latitude','longitude'])
#print data.head()
# Get a list of unique user_id values
uniqueIds = np.unique(data['user_id'].values)
# Get the ordered (by timestamp) coordinates for each user_id
output = [[id,data.loc[data['user_id']==id].sort_values(by='timestamp')['latitude','longitude'].values.tolist()] for id in uniqueIds]
# Save outputs
outputs = pd.DataFrame(output)
#print outputs
outputs.to_csv('path', index=False, header=False)
我尝试使用 df[].value_counts()
获取 user_id 的计数,然后在行 output = [[......data['user_id']==id>1].....
中传递 >1,但是,这没有用。是否可以将 user_id
的频率作为附加参数添加到代码中并仅为这些用户提取信息?
示例数据:
user_id, timestamp, latitude, longitude
478134225, 3/12/2017 9:04, 38.8940974, -77.0276216
478103585, 3/12/2017 9:04, 38.882584, -77.1124701
478073193, 3/12/2017 9:07, 39.00027849, -77.09480086
476194185, 3/12/2017 9:14, 38.8048355, -77.0469214
476162349, 3/12/2017 9:16, 38.8940974, -77.0276216
478073193, 3/12/2017 9:05, 38.8549, -76.8752
477899275, 3/12/2017 9:08, 38.90181532, -77.03733586
477452890, 3/12/2017 9:08, 38.96117237, -76.95561893
478073193, 3/12/2017 9:05, 38.7188716, -77.1542684
让我们尝试 groupby
然后 filter
方法 return 仅筛选那些在过滤函数中评估为 true 的记录。在这种情况下,return 对于具有多个记录的组或 user_id 为真。
df.groupby('user_id').filter(lambda x: x['user_id'].count()>1)
使用转换和布尔索引的更高效的语句。
df[df.groupby('user_id')['user_id'].transform('count') > 1]
我有一个社交媒体帖子数据集,我试图按 user_id
大于 1 的频率(发布 2 次或更多次的用户)对其进行过滤。我想对此进行过滤,以便进一步清理正在创建的轨迹数据。
示例代码:
# Import Data
data = pd.read_csv('path', delimiter=',', engine='python')
#print len(data),"rows"
#print data
# Create Data Fame
df = pd.DataFrame(data, columns=['user_id','timestamp','latitude','longitude'])
#print data.head()
# Get a list of unique user_id values
uniqueIds = np.unique(data['user_id'].values)
# Get the ordered (by timestamp) coordinates for each user_id
output = [[id,data.loc[data['user_id']==id].sort_values(by='timestamp')['latitude','longitude'].values.tolist()] for id in uniqueIds]
# Save outputs
outputs = pd.DataFrame(output)
#print outputs
outputs.to_csv('path', index=False, header=False)
我尝试使用 df[].value_counts()
获取 user_id 的计数,然后在行 output = [[......data['user_id']==id>1].....
中传递 >1,但是,这没有用。是否可以将 user_id
的频率作为附加参数添加到代码中并仅为这些用户提取信息?
示例数据:
user_id, timestamp, latitude, longitude
478134225, 3/12/2017 9:04, 38.8940974, -77.0276216
478103585, 3/12/2017 9:04, 38.882584, -77.1124701
478073193, 3/12/2017 9:07, 39.00027849, -77.09480086
476194185, 3/12/2017 9:14, 38.8048355, -77.0469214
476162349, 3/12/2017 9:16, 38.8940974, -77.0276216
478073193, 3/12/2017 9:05, 38.8549, -76.8752
477899275, 3/12/2017 9:08, 38.90181532, -77.03733586
477452890, 3/12/2017 9:08, 38.96117237, -76.95561893
478073193, 3/12/2017 9:05, 38.7188716, -77.1542684
让我们尝试 groupby
然后 filter
方法 return 仅筛选那些在过滤函数中评估为 true 的记录。在这种情况下,return 对于具有多个记录的组或 user_id 为真。
df.groupby('user_id').filter(lambda x: x['user_id'].count()>1)
使用转换和布尔索引的更高效的语句。
df[df.groupby('user_id')['user_id'].transform('count') > 1]