pandas聚合和分组运算之groupby

前端之家收集整理的这篇文章主要介绍了pandas聚合和分组运算之groupby前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
pandas提供了一个灵活高效的groupby功能,它使你能以一种自然的方式对数据集进行切片、切块、摘要等操作。根据一个或多个键(可以是函数、数组或DataFrame列名)拆分pandas对象。计算分组摘要统计,如计数、平均值、标准差,或用户自定义函数。对DataFrame的列应用各种各样的函数。应用组内转换或其他运算,如规格化、线性回归、排名或选取子集等。计算透视表或交叉表。执行分位数分析以及其他分组分析。

1、首先来看看下面这个非常简单的表格型数据集(以DataFrame的形式):

1
2
3
4
5
6
7
8
9
10
11
12
>>> import pandas as pd
>>> df = pd.DataFrame({ 'key1' :[ 'a' , 'a' , 'b' , 'a' ],
... 'key2' :[ 'one' , 'two' , 'one' , 'one' ],
... 'data1' :np.random.randn( @H_404_103@5 ),
... 'data2' :np.random.randn( @H_404_103@5 )})
>>> df
data1 data2 key1 key2
@H_404_103@0 - @H_404_103@0.410673 @H_404_103@0.519378 a one
@H_404_103@1 - @H_404_103@2.120793 @H_404_103@0.199074 a two
@H_404_103@2 @H_404_103@ 0.642216 - @H_404_103@0.143671 b one
@H_404_103@3 @H_404_103@ 0.975133 - @H_404_103@0.592994 b two
@H_404_103@4 - @H_404_103@1.017495 - @H_404_103@0.530459 a one

假设你想要按key1进行分组,并计算data1列的平均值,我们可以访问data1,并根据key1调用groupby:

1
2
3
>>> grouped = df[ 'data1' ].groupby(df[ 'key1' ])
>>> grouped
<pandas.core.groupby.SeriesGroupBy object at @H_404_103@0x04120D70 >

变量grouped是一个GroupBy对象,它实际上还没有进行任何计算,只是含有一些有关分组键df['key1']的中间数据而已,然后我们可以调用GroupBy的mean方法来计算分组平均值:

1
2
3
4
5
>>> grouped.mean()
key1
a - @H_404_103@1.182987
b @H_404_103@0.808674
dtype: float64

说明:数据(Series)根据分组键进行了聚合,产生了一个新的Series,其索引为key1列中的唯一值。之所以结果中索引的名称为key1,是因为原始DataFrame的列df['key1']就叫这个名字。

2、如果我们一次传入多个数组,就会得到不同的结果:

1
2
3
4
5
6
7
8
>>> means = df[ 'data1' ].groupby([df[ 'key1' ],df[ 'key2' ]]).mean()
>>> means
key1 key2
a one - @H_404_103@0.714084
two - @H_404_103@2.120793
b one @H_404_103@0.642216
two @H_404_103@0.975133
dtype: float64

通过两个键对数据进行了分组,得到的Series具有一个层次化索引(由唯一的键对组成):

1
2
3
4
5
>>> means.unstack()
key2 one two
key1
a - @H_404_103@0.714084 - @H_404_103@2.120793
b @H_404_103@0.642216 @H_404_103@0.975133

在上面这些示例中,分组键均为Series。实际上,分组键可以是任何长度适当的数组:

1
2
3
4
5
6
7
8
>>> states = np.array([ 'Ohio' , 'California' , 'Ohio' , 'Ohio' ])
>>> years = np.array([ @H_404_103@2005 , @H_404_103@2005 , @H_404_103@2006 , @H_404_103@2006 ])
>>> df[ 'data1' ].groupby([states,years]).mean()
California @H_404_103@2005 - @H_404_103@2.120793
@H_404_103@2006 @H_404_103@0.642216
Ohio @H_404_103@2005 @H_404_103@0.282230
@H_404_103@2006 - @H_404_103@1.017495
dtype: float64

3、此外,你还可以将列名(可以是字符串、数字或其他Python对象)用作分组将:

1
2
3
4
5
6
7
8
9
10
11
12
>>> df.groupby( 'key1' ).mean()
data1 data2
key1
a - @H_404_103@1.182987 @H_404_103@0.062665
b @H_404_103@0.808674 - @H_404_103@0.368333
>>> df.groupby([ 'key1' , 'key2' ]).mean()
data1 data2
key1 key2
a one - @H_404_103@0.714084 - @H_404_103@0.005540
two - @H_404_103@2.120793 @H_404_103@0.199074
b one @H_404_103@0.642216 - @H_404_103@0.143671
two @H_404_103@0.975133 - @H_404_103@0.592994

说明:在执行df.groupby('key1').mean()时,结果中没有key2列。这是因为df['key2']不是数值数据,所以被从结果中排除了。默认情况下,所有数值列都会被聚合,虽然有时可能会被过滤为一个子集。

无论你准备拿groupby做什么,都有可能会用到GroupBy的size方法,它可以返回一个含有分组大小的Series:

1
2
3
4
5
6
7
>>> df.groupby([ 'key1' , 'key2' ]).size()
key1 key2
a one @H_404_103@2
two @H_404_103@1
b one @H_404_103@1
two @H_404_103@1
dtype: int64

注意:分组键中的任何缺失值都会被排除在结果之外。

4、对分组进行迭代

GroupBy对象支持迭代,可以产生一组二元元组(由分组名和数据块组成)。看看下面这个简单的数据集:

1
2
3
4
5
6
7
8
9
10
11
12
13
>>> for name,group in df.groupby( 'key1' ):
... print (name)
... print (group)
...
a
data1 data2 key1 key2
@H_404_103@0 - @H_404_103@0.410673 @H_404_103@0.519378 a one
@H_404_103@1 - @H_404_103@2.120793 @H_404_103@0.199074 a two
@H_404_103@4 - @H_404_103@1.017495 - @H_404_103@0.530459 a one
b
data1 data2 key1 key2
@H_404_103@2 @H_404_103@ 0.642216 - @H_404_103@0.143671 b one
@H_404_103@3 @H_404_103@ 0.975133 - @H_404_103@0.592994 b two

对于多重键的情况,元组的第一个元素将会是由键值组成的元组:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
>>> for (k1,k2),group in df.groupby([ 'key1' , 'key2' ]):
... print k1,k2
... print group
...
a one
data1 data2 key1 key2
@H_404_103@0 - @H_404_103@0.410673 @H_404_103@0.519378 a one
@H_404_103@4 - @H_404_103@1.017495 - @H_404_103@0.530459 a one
a two
data1 data2 key1 key2
@H_404_103@1 - @H_404_103@2.120793 @H_404_103@0.199074 a two
b one
data1 data2 key1 key2
@H_404_103@2 @H_404_103@ 0.642216 - @H_404_103@0.143671 b one
b two
data1 data2 key1 key2
@H_404_103@3 @H_404_103@ 0.975133 - @H_404_103@0.592994 b two

当然,你可以对这些数据片段做任何操作。有一个你可能会觉得有用的运算:将这些数据片段做成一个字典:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
>>> pieces = dict ( list (df.groupby( 'key1' )))
>>> pieces[ 'b' ]
data1 data2 key1 key2
@H_404_103@2 @H_404_103@ 0.642216 - @H_404_103@0.143671 b one
@H_404_103@3 @H_404_103@ 0.975133 - @H_404_103@0.592994 b two
>>> df.groupby( 'key1' )
<pandas.core.groupby.DataFrameGroupBy object at @H_404_103@0x0413AE30 >
>>> list (df.groupby( 'key1' ))
[( 'a' ,data1 data2 key1 key2
@H_404_103@0 - @H_404_103@0.410673 @H_404_103@0.519378 a one
@H_404_103@1 - @H_404_103@2.120793 @H_404_103@0.199074 a two
@H_404_103@4 - @H_404_103@1.017495 - @H_404_103@0.530459 a one),( 'b' ,data1 data2 key1 key2
@H_404_103@2 @H_404_103@ 0.642216 - @H_404_103@0.143671 b one
@H_404_103@3 @H_404_103@ 0.975133 - @H_404_103@0.592994 b two)]

groupby默认是在axis=0上进行分组的,通过设置也可以在其他任何轴上进行分组。那上面例子中的df来说,我们可以根据dtype对列进行分组:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
>>> df.dtypes
data1 float64
data2 float64
key1 object
key2 object
dtype: object
>>> grouped = df.groupby(df.dtypes,axis = @H_404_103@1 )
>>> dict ( list (grouped))
{dtype( 'O' ): key1 key2
@H_404_103@0 a one
@H_404_103@1 a two
@H_404_103@2 b one
@H_404_103@3 b two
@H_404_103@4 a one,dtype( 'float64' ): data1 data2
@H_404_103@0 - @H_404_103@0.410673 @H_404_103@0.519378
@H_404_103@1 - @H_404_103@2.120793 @H_404_103@0.199074
@H_404_103@2 @H_404_103@ 0.642216 - @H_404_103@0.143671
@H_404_103@3 @H_404_103@ 0.975133 - @H_404_103@0.592994
@H_404_103@4 - @H_404_103@1.017495 - @H_404_103@0.530459 }
1
2
3
4
5
6
7
8
9
10
11
12
13
14
>>> grouped
<pandas.core.groupby.DataFrameGroupBy object at @H_404_103@0x041288F0 >
>>> list (grouped)
[(dtype( 'float64' ),data1 data2
@H_404_103@0 - @H_404_103@0.410673 @H_404_103@0.519378
@H_404_103@1 - @H_404_103@2.120793 @H_404_103@0.199074
@H_404_103@2 @H_404_103@ 0.642216 - @H_404_103@0.143671
@H_404_103@3 @H_404_103@ 0.975133 - @H_404_103@0.592994
@H_404_103@4 - @H_404_103@1.017495 - @H_404_103@0.530459 ),(dtype( 'O' ),key1 key2
@H_404_103@0 a one
@H_404_103@1 a two
@H_404_103@2 b one
@H_404_103@3 b two
@H_404_103@4 a one)]

5、选取一个或一组列

对于由DataFrame产生的GroupBy对象,如果用一个(单个字符串)或一组(字符串数组)列名对其进行索引,就能实现选取部分列进行聚合的目的,即:

1
2
3
4
5
6
>>> df.groupby( 'key1' )[ 'data1' ]
<pandas.core.groupby.SeriesGroupBy object at @H_404_103@0x06615FD0 >
>>> df.groupby( 'key1' )[ 'data2' ]
<pandas.core.groupby.SeriesGroupBy object at @H_404_103@0x06615CB0 >
>>> df.groupby( 'key1' )[[ 'data2' ]]
<pandas.core.groupby.DataFrameGroupBy object at @H_404_103@0x06615F10 >

和以下代码是等效的:

1
2
3
4
5
6
>>> df[ 'data1' ].groupby([df[ 'key1' ]])
<pandas.core.groupby.SeriesGroupBy object at @H_404_103@0x06615FD0 >
>>> df[[ 'data2' ]].groupby([df[ 'key1' ]])
<pandas.core.groupby.DataFrameGroupBy object at @H_404_103@0x06615F10 >
>>> df[ 'data2' ].groupby([df[ 'key1' ]])
<pandas.core.groupby.SeriesGroupBy object at @H_404_103@0x06615E30 >

尤其对于大数据集,很可能只需要对部分列进行聚合。例如,在前面那个数据集中,如果只需计算data2列的平均值并以DataFrame形式得到结果,代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
>>> df.groupby([ 'key1' , 'key2' ])[[ 'data2' ]].mean()
data2
key1 key2
a one - @H_404_103@0.005540
two @H_404_103@0.199074
b one - @H_404_103@0.143671
two - @H_404_103@0.592994
>>> df.groupby([ 'key1' , 'key2' ])[ 'data2' ].mean()
key1 key2
a one - @H_404_103@0.005540
two @H_404_103@0.199074
b one - @H_404_103@0.143671
two - @H_404_103@0.592994
Name: data2,dtype: float64

这种索引操作所返回的对象是一个已分组的DataFrame(如果传入的是列表或数组)或已分组的Series(如果传入的是标量形式的单个列明):

1
2
3
4
5
6
7
8
9
10
>>> s_grouped = df.groupby([ 'key1' , 'key2' ])[ 'data2' ]
>>> s_grouped
<pandas.core.groupby.SeriesGroupBy object at @H_404_103@0x06615B10 >
>>> s_grouped.mean()
key1 key2
a one - @H_404_103@0.005540
two @H_404_103@0.199074
b one - @H_404_103@0.143671
two - @H_404_103@0.592994
Name: data2,dtype: float64

6、通过字典或Series进行分组

除数组以外,分组信息还可以其他形式存在,来看一个DataFrame示例:

1
2
3
4
5
6
7
8
9
10
11
12
>>> people = pd.DataFrame(np.random.randn( @H_404_103@5 , @H_404_103@5 ),
... columns = [ 'a' , 'c' , 'd' , 'e' ],
... index = [ 'Joe' , 'Steve' , 'Wes' , 'Jim' , 'Travis' ]
... )
>>> people
a b c d e
Joe @H_404_103@0.306336 - @H_404_103@0.139431 @H_404_103@ 0.210028 - @H_404_103@1.489001 - @H_404_103@0.172998
Steve @H_404_103@0.998335 @H_404_103@0.494229 @H_404_103@0.337624 - @H_404_103@1.222726 - @H_404_103@0.402655
Wes @H_404_103@1.415329 @H_404_103@0.450839 - @H_404_103@1.052199 @H_404_103@0.731721 @H_404_103@0.317225
Jim @H_404_103@0.550551 @H_404_103@3.201369 @H_404_103@0.669713 @H_404_103@0.725751 @H_404_103@0.577687
Travis - @H_404_103@2.013278 - @H_404_103@2.010304 @H_404_103@0.117713 - @H_404_103@0.545000 - @H_404_103@1.228323
>>> people.ix[ @H_404_103@2 : @H_404_103@3 ,[ 'b' , 'c' ]] = np.nan

假设已知列的分组关系,并希望根据分组计算列的总计:

1
2
3
4
5
6
>>> mapping = { 'a' : 'red' , 'b' : 'red' , 'c' : 'blue' ,
... 'd' : 'blue' , 'e' : 'red' , 'f' : 'orange' }
>>> mapping
{ 'a' : 'red' , 'c' : 'blue' , 'b' : 'red' , 'e' : 'red' , 'd' : 'blue' , 'f' : 'orange' }
>>> type (mapping)
< type 'dict' >

现在,只需将这个字典传给groupby即可:

1
2
3
4
5
6
7
8
9
10
>>> by_column = people.groupby(mapping,axis = @H_404_103@1 )
>>> by_column
<pandas.core.groupby.DataFrameGroupBy object at @H_404_103@0x066150F0 >
>>> by_column. sum ()
blue red
Joe - @H_404_103@1.278973 - @H_404_103@0.006092
Steve - @H_404_103@0.885102 @H_404_103@1.089908
Wes @H_404_103@0.731721 @H_404_103@1.732554
Jim @H_404_103@1.395465 @H_404_103@4.329606
Travis - @H_404_103@0.427287 - @H_404_103@5.251905

Series也有同样的功能,它可以被看做一个固定大小的映射。对于上面那个例子,如果用Series作为分组键,则pandas会检查Series以确保其索引跟分组轴是对齐的:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
>>> map_series = pd.Series(mapping)
>>> map_series
a red
b red
c blue
d blue
e red
f orange
dtype: object
>>> people.groupby(map_series,axis = @H_404_103@1 ).count()
blue red
Joe @H_404_103@2 @H_404_103@3
Steve @H_404_103@2 @H_404_103@3
Wes @H_404_103@1 @H_404_103@2
Jim @H_404_103@2 @H_404_103@3
Travis @H_404_103@2 @H_404_103@3

7、通过函数进行分组

相较于字典或Series,Python函数在定义分组映射关系时可以更有创意且更为抽象。任何被当做分组键的函数都会在各个索引值上被调用一次,其返回值就会被用作分组名称

具体点说,以DataFrame为例,其索引值为人的名字。假设你希望根据人名的长度进行分组,虽然可以求取一个字符串长度数组,但其实仅仅传入len函数即可:

1
2
3
4
5
>> people.groupby( len ). sum ()
a b c d e
@H_404_103@3 @H_404_103@ 2.272216 @H_404_103@3.061938 @H_404_103@ 0.879741 - @H_404_103@0.031529 @H_404_103@0.721914
@H_404_103@5 @H_404_103@ 0.998335 @H_404_103@0.494229 @H_404_103@ 0.337624 - @H_404_103@1.222726 - @H_404_103@0.402655
@H_404_103@6 - @H_404_103@2.013278 - @H_404_103@2.010304 @H_404_103@0.117713 - @H_404_103@0.545000 - @H_404_103@1.228323

函数跟数组、列表、字典、Series混合使用也不是问题,因为任何东西最终都会被转换为数组:

1
2
3
4
5
6
7
>>> key_list = [ 'one' , 'two' ]
>>> people.groupby([ len ,key_list]). min ()
a b c d e
@H_404_103@3 one @H_404_103@0.306336 - @H_404_103@0.139431 @H_404_103@0.210028 - @H_404_103@1.489001 - @H_404_103@0.172998
two @H_404_103@0.550551 @H_404_103@3.201369 @H_404_103@0.669713 @H_404_103@0.725751 @H_404_103@0.577687
@H_404_103@5 one @H_404_103@0.998335 @H_404_103@ 0.494229 @H_404_103@0.337624 - @H_404_103@1.222726 - @H_404_103@0.402655
@H_404_103@6 two - @H_404_103@2.013278 - @H_404_103@2.010304 @H_404_103@ 0.117713 - @H_404_103@0.545000 - @H_404_103@1.228323

8、根据索引级别分组

层次化索引数据集最方便的地方在于它能够根据索引级别进行聚合。要实现该目的,通过level关键字传入级别编号或名称即可:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
>>> columns = pd.MultiIndex.from_arrays([[ 'US' , 'US' , 'JP' , 'JP' ],
... [ @H_404_103@1 , @H_404_103@3 , @H_404_103@5 , @H_404_103@1 , @H_404_103@3 ]],names = [ 'cty' , 'tenor' ])
>>> columns
MultiIndex
[US @H_404_103@1 ,JP @H_404_103@1 , @H_404_103@3 ]
>>> hier_df = pd.DataFrame(np.random.randn( @H_404_103@4 , @H_404_103@5 ),columns = columns)
>>> hier_df
cty US JP
tenor @H_404_103@1 @H_404_103@3 @H_404_103@5 @H_404_103@1 @H_404_103@3
@H_404_103@0 - @H_404_103@0.166600 @H_404_103@0.248159 - @H_404_103@0.082408 - @H_404_103@0.710841 - @H_404_103@0.097131
@H_404_103@1 - @H_404_103@1.762270 @H_404_103@0.687458 @H_404_103@1.235950 - @H_404_103@1.407513 @H_404_103@1.304055
@H_404_103@2 @H_404_103@ 1.089944 @H_404_103@0.258175 - @H_404_103@0.749688 - @H_404_103@0.851948 @H_404_103@1.687768
@H_404_103@3 - @H_404_103@0.378311 - @H_404_103@0.078268 @H_404_103@0.247147 - @H_404_103@0.018829 @H_404_103@0.744540
>>> hier_df.groupby(level = 'cty' ,axis = @H_404_103@1 ).count()
cty JP US
@H_404_103@0 @H_404_103@ 2 @H_404_103@3
@H_404_103@1 @H_404_103@ 2 @H_404_103@3
@H_404_103@2 @H_404_103@ 2 @H_404_103@3
@H_404_103@3 @H_404_103@ 2 @H_404_103@3

猜你在找的设计模式相关文章