我需要计数每个域中的唯一ID值。

我有数据:

ID, domain
123, 'vk.com'
123, 'vk.com'
123, 'twitter.com'
456, 'vk.com'
456, 'facebook.com'
456, 'vk.com'
456, 'google.com'
789, 'twitter.com'
789, 'vk.com'

我试试df。groupby([‘域’,‘身份证’]).count ()

但是我想要

domain, count
vk.com   3
twitter.com   2
facebook.com   1
google.com   1

一般来说,要在一列中计算不同的值,你可以使用Series.value_counts:

df.domain.value_counts()

#'vk.com'          5
#'twitter.com'     2
#'facebook.com'    1
#'google.com'      1
#Name: domain, dtype: int64

要查看一列中有多少唯一值,请使用Series.nunique:

df.domain.nunique()
# 4

要获得所有这些不同的值,可以使用unique或drop_duplicate,这两个函数之间的细微区别是unique返回numpy。数组而drop_duplicate返回一个pandas。系列:

df.domain.unique()
# array(["'vk.com'", "'twitter.com'", "'facebook.com'", "'google.com'"], dtype=object)

df.domain.drop_duplicates()
#0          'vk.com'
#2     'twitter.com'
#4    'facebook.com'
#6      'google.com'
#Name: domain, dtype: object

对于这个特定的问题,由于你想要计算相对于另一个变量的不同值,除了这里其他答案提供的groupby方法外,你也可以简单地先删除重复项,然后执行value_counts():

import pandas as pd
df.drop_duplicates().domain.value_counts()

# 'vk.com'          3
# 'twitter.com'     2
# 'facebook.com'    1
# 'google.com'      1
# Name: domain, dtype: int64

你需要nunique:

df = df.groupby('domain')['ID'].nunique()

print (df)
domain
'facebook.com'    1
'google.com'      1
'twitter.com'     2
'vk.com'          3
Name: ID, dtype: int64

如果你需要剥离'字符:

df = df.ID.groupby([df.domain.str.strip("'")]).nunique()
print (df)
domain
facebook.com    1
google.com      1
twitter.com     2
vk.com          3
Name: ID, dtype: int64

或者就像Jon Clements评论的那样:

df.groupby(df.domain.str.strip("'"))['ID'].nunique()

你可以像这样保留列名:

df = df.groupby(by='domain', as_index=False).agg({'ID': pd.Series.nunique})
print(df)
    domain  ID
0       fb   1
1      ggl   1
2  twitter   2
3       vk   3

区别在于nunique()返回一个Series, agg()返回一个DataFrame。

如果我理解正确的话,您需要每个域的不同id的数量。那么你可以试试这个:

output = df.drop_duplicates()
output.groupby('domain').size()

输出:

    domain
facebook.com    1
google.com      1
twitter.com     2
vk.com          3
dtype: int64

您还可以使用value_counts,它的效率稍低。但最好的是Jezrael使用nunique的回答:

%timeit df.drop_duplicates().groupby('domain').size()
1000 loops, best of 3: 939 µs per loop
%timeit df.drop_duplicates().domain.value_counts()
1000 loops, best of 3: 1.1 ms per loop
%timeit df.groupby('domain')['ID'].nunique()
1000 loops, best of 3: 440 µs per loop

df.domain.value_counts ()

>>> df.domain.value_counts()

vk.com          5

twitter.com     2

google.com      1

facebook.com    1

Name: domain, dtype: int64