使用 Pandas 计算每个组的唯一值
Count unique values per groups with Pandas
我需要计算每个 domain
中的唯一 ID
个值。
我有数据:
ID, domain
123, 'vk.com'
123, 'vk.com'
123, 'twitter.com'
456, 'vk.com'
456, 'facebook.com'
456, 'vk.com'
456, 'google.com'
789, 'twitter.com'
789, 'vk.com'
我试试df.groupby(['domain', 'ID']).count()
但是我想得到
domain, count
vk.com 3
twitter.com 2
facebook.com 1
google.com 1
一般统计单列的不同值,可以使用Series.value_counts
:
df.domain.value_counts()
#'vk.com' 5
#'twitter.com' 2
#'facebook.com' 1
#'google.com' 1
#Name: domain, dtype: int64
要查看一列中有多少个唯一值,请使用 Series.nunique
:
df.domain.nunique()
# 4
要获得所有这些不同的值,您可以使用 unique
or drop_duplicates
,这两个函数之间的细微差别是 unique
return a numpy.array
而 drop_duplicates
return一个pandas.Series
:
df.domain.unique()
# array(["'vk.com'", "'twitter.com'", "'facebook.com'", "'google.com'"], dtype=object)
df.domain.drop_duplicates()
#0 'vk.com'
#2 'twitter.com'
#4 'facebook.com'
#6 'google.com'
#Name: domain, dtype: object
至于这个具体问题,因为你想计算另一个变量的不同值,除了这里其他答案提供的 groupby
方法之外,你也可以先删除重复项然后做 value_counts()
:
import pandas as pd
df.drop_duplicates().domain.value_counts()
# 'vk.com' 3
# 'twitter.com' 2
# 'facebook.com' 1
# 'google.com' 1
# Name: domain, dtype: int64
你需要nunique
:
df = df.groupby('domain')['ID'].nunique()
print (df)
domain
'facebook.com' 1
'google.com' 1
'twitter.com' 2
'vk.com' 3
Name: ID, dtype: int64
如果需要strip
'
个字符:
df = df.ID.groupby([df.domain.str.strip("'")]).nunique()
print (df)
domain
facebook.com 1
google.com 1
twitter.com 2
vk.com 3
Name: ID, dtype: int64
或如 评论:
df.groupby(df.domain.str.strip("'"))['ID'].nunique()
您可以像这样保留列名:
df = df.groupby(by='domain', as_index=False).agg({'ID': pd.Series.nunique})
print(df)
domain ID
0 fb 1
1 ggl 1
2 twitter 2
3 vk 3
不同之处在于 nunique()
returns 一个 Series 和 agg()
returns 一个 DataFrame。
如果我没理解错的话,你想要每个 domain
的不同 ID
的数量。那么你可以试试这个:
output = df.drop_duplicates()
output.groupby('domain').size()
输出:
domain
facebook.com 1
google.com 1
twitter.com 2
vk.com 3
dtype: int64
也可以使用value_counts
,效率稍低。但最好的是 使用 nunique
:
%timeit df.drop_duplicates().groupby('domain').size()
1000 loops, best of 3: 939 µs per loop
%timeit df.drop_duplicates().domain.value_counts()
1000 loops, best of 3: 1.1 ms per loop
%timeit df.groupby('domain')['ID'].nunique()
1000 loops, best of 3: 440 µs per loop
df.domain.value_counts()
>>> df.domain.value_counts()
vk.com 5
twitter.com 2
google.com 1
facebook.com 1
Name: domain, dtype: int64
我需要计算每个 domain
中的唯一 ID
个值。
我有数据:
ID, domain
123, 'vk.com'
123, 'vk.com'
123, 'twitter.com'
456, 'vk.com'
456, 'facebook.com'
456, 'vk.com'
456, 'google.com'
789, 'twitter.com'
789, 'vk.com'
我试试df.groupby(['domain', 'ID']).count()
但是我想得到
domain, count
vk.com 3
twitter.com 2
facebook.com 1
google.com 1
一般统计单列的不同值,可以使用Series.value_counts
:
df.domain.value_counts()
#'vk.com' 5
#'twitter.com' 2
#'facebook.com' 1
#'google.com' 1
#Name: domain, dtype: int64
要查看一列中有多少个唯一值,请使用 Series.nunique
:
df.domain.nunique()
# 4
要获得所有这些不同的值,您可以使用 unique
or drop_duplicates
,这两个函数之间的细微差别是 unique
return a numpy.array
而 drop_duplicates
return一个pandas.Series
:
df.domain.unique()
# array(["'vk.com'", "'twitter.com'", "'facebook.com'", "'google.com'"], dtype=object)
df.domain.drop_duplicates()
#0 'vk.com'
#2 'twitter.com'
#4 'facebook.com'
#6 'google.com'
#Name: domain, dtype: object
至于这个具体问题,因为你想计算另一个变量的不同值,除了这里其他答案提供的 groupby
方法之外,你也可以先删除重复项然后做 value_counts()
:
import pandas as pd
df.drop_duplicates().domain.value_counts()
# 'vk.com' 3
# 'twitter.com' 2
# 'facebook.com' 1
# 'google.com' 1
# Name: domain, dtype: int64
你需要nunique
:
df = df.groupby('domain')['ID'].nunique()
print (df)
domain
'facebook.com' 1
'google.com' 1
'twitter.com' 2
'vk.com' 3
Name: ID, dtype: int64
如果需要strip
'
个字符:
df = df.ID.groupby([df.domain.str.strip("'")]).nunique()
print (df)
domain
facebook.com 1
google.com 1
twitter.com 2
vk.com 3
Name: ID, dtype: int64
或如
df.groupby(df.domain.str.strip("'"))['ID'].nunique()
您可以像这样保留列名:
df = df.groupby(by='domain', as_index=False).agg({'ID': pd.Series.nunique})
print(df)
domain ID
0 fb 1
1 ggl 1
2 twitter 2
3 vk 3
不同之处在于 nunique()
returns 一个 Series 和 agg()
returns 一个 DataFrame。
如果我没理解错的话,你想要每个 domain
的不同 ID
的数量。那么你可以试试这个:
output = df.drop_duplicates()
output.groupby('domain').size()
输出:
domain
facebook.com 1
google.com 1
twitter.com 2
vk.com 3
dtype: int64
也可以使用value_counts
,效率稍低。但最好的是 nunique
:
%timeit df.drop_duplicates().groupby('domain').size()
1000 loops, best of 3: 939 µs per loop
%timeit df.drop_duplicates().domain.value_counts()
1000 loops, best of 3: 1.1 ms per loop
%timeit df.groupby('domain')['ID'].nunique()
1000 loops, best of 3: 440 µs per loop
df.domain.value_counts()
>>> df.domain.value_counts()
vk.com 5
twitter.com 2
google.com 1
facebook.com 1
Name: domain, dtype: int64