整理了 25 个 Pandas 实用技巧,拿走不谢!

共 5533字,需浏览 12分钟

 ·

2020-08-13 21:11







本文一共为大家分享25个pandas技巧。

显示已安装的版本

输入下面的命令查询pandas版本:

1In [7]:pd.__version__
2Out[7]: 0.24.2


如果你还想知道pandas所依赖的模块的版本,你可以使用show_versions()函数:

 1In [9]:
2pd.show_versions()
3
4INSTALLED VERSIONS 
5------------------ 
6commit: None 
7python: 3.7.3.final.0 
8python-bits: 64 
9OS: Darwin 
10OS-release: 18.6.0 
11machine: x86_64 
12processor: i386 
13byteorder: little 
14LC_ALL: None 
15LANG: en_US.UTF-8 
16LOCALE: en_US.UTF-8 
17
18pandas: 0.24.2 
19pytest: None 
20pip: 19.1.1 
21setuptools: 41.0.1 
22Cython: None 
23numpy: 1.16.4 
24scipy: None 
25pyarrow: None 
26xarray: None 
27IPython: 7.5.0 
28sphinx: None 
29patsy: None 
30dateutil: 2.8.0 
31pytz: 2019.1 
32blosc: None 
33bottleneck: None 
34tables: None 
35numexpr: None 
36feather: None 
37matplotlib: 3.1.0 
38openpyxl: None 
39xlrd: None 
40xlwt: None 
41xlsxwriter: None 
42lxml.etree: None 
43bs4: None 
44html5lib: None 
45sqlalchemy: None 
46pymysql: None 
47psycopg2: None 
48jinja2: 2.10.1 
49s3fs: None 
50fastparquet: None 
51pandas_gbq: None 
52pandas_datareader: None 
53gcsfs: None


你可以查看到Python,pandas, Numpy, matplotlib等的版本信息。


创建示例DataFrame


假设你需要创建一个示例DataFrame。有很多种实现的途径,我最喜欢的方式是传一个字典给DataFrame constructor,其中字典中的keys为列名,values为列的取值。



现在如果你需要创建一个更大的DataFrame,上述方法则需要太多的输入。在这种情况下,你可以使用Numpy的random.rand()函数,告诉它行数和列数,将它传递给DataFrame constructor:




这种方式很好,但如果你还想把列名变为非数值型的,你可以强制地将一串字符赋值给columns参数




你可以想到,你传递的字符串的长度必须与列数相同。


更改列名


让我们来看一下刚才我们创建的示例DataFrame:




我更喜欢在选取pandas列的时候使用点(.),但是这对那么列名中含有空格的列不会生效。让我们来修复这个问题。


更改列名最灵活的方式是使用rename()函数。你可以传递一个字典,其中
keys为原列名,values为新列名,还可以指定axis:

1In [14]:
2df = df.rename({ col one : col_one ,  col two : col_two }, axis= columns )


使用这个函数最好的方式是你需要更改任意数量的列名,不管是一列或者全部的列。


如果你需要一次性重新命令所有的列名,更简单的方式就是
重写DataFrame的columns属性

1In [15]:
2df.columns = [ col_one ,  col_two ]


如果你需要做的仅仅是将空格换成下划线,那么更好的办法是使用str.replace()方法,这是因为你都不需要输入所有的列名:

1In [16]:
2df.columns = df.columns.str.replace(   ,  _ )


上述三个函数的结果都一样,可以更改列名使得列名中不含有空格:




最后,如果你需要在列名中添加前缀或者后缀,你可以使用add_prefix()函数




或者使用add_suffix()函数



行序反转


让我们来看一下drinks这个DataFame:

1In [20]:
2drinks.head()
3
4Out[20]:



countrybeer_servingsspirit_servingswine_servingstotal_litres_of_pure_alcoholcontinent
0Afghanistan0000.0Asia
1Albania89132544.9Europe
2Algeria250140.7Africa
3Andorra24513831212.4Europe
4Angola21757455.9Africa


该数据集描述了每个国家的平均酒消费量。如果你想要将行序反转呢?

最直接的办法是使用loc函数并传递::-1,跟Python中列表反转时使用的切片符号一致:

1In [21]:
2drinks.loc[::-1].head()
3
4Out[21]:



countrybeer_servingsspirit_servingswine_servingstotal_litres_of_pure_alcoholcontinent
192Zimbabwe641844.7Africa
191Zambia321942.5Africa
190Yemen6000.1Asia
189Vietnam111212.0Asia
188Venezuela33310037.7South America

如果你还想重置索引使得它从0开始呢?


你可以使用
reset_index()函数,告诉他去掉完全抛弃之前的索引

1In [22]:
2drinks.loc[::-1].reset_index(drop=True).head()
3
4Out[22]:



countrybeer_servingsspirit_servingswine_servingstotal_litres_of_pure_alcoholcontinent
0Zimbabwe641844.7Africa
1Zambia321942.5Africa
2Yemen6000.1Asia
3Vietnam111212.0Asia
4Venezuela33310037.7South America


你可以看到,行序已经反转,索引也被重置为默认的整数序号。


列序反转


跟之前的技巧一样,你也可以使用loc函数将列从左至右反转:

1In [23]:
2drinks.loc[:, ::-1].head()
3
4Out[23]:



continenttotal_litres_of_pure_alcoholwine_servingsspirit_servingsbeer_servingscountry
0Asia0.0000Afghanistan
1Europe4.95413289Albania
2Africa0.714025Algeria
3Europe12.4312138245Andorra
4Africa5.94557217Angola


逗号之前的冒号表示选择所有行,逗号之后的::-1表示反转所有的列,这就是为什么country这一列现在在最右边。


通过数据类型选择列

这里有drinks这个DataFrame的数据类型:

 1In [24]:
2drinks.dtypes
3
4Out[24]:
5country                          object
6beer_servings                     int64
7spirit_servings                   int64
8wine_servings                     int64
9total_litres_of_pure_alcohol    float64
10continent                        object
11dtype: object


假设你仅仅需要选取数值型的列,那么你可以使用select_dtypes()函数

1In [25]:
2drinks.select_dtypes(include= number ).head()
3
4Out[25]:



beer_servingsspirit_servingswine_servingstotal_litres_of_pure_alcohol
00000.0
189132544.9
2250140.7
324513831212.4
421757455.9


这包含了int和float型的列。


你也可以使用这个函数来选取数据类型为object的列:




你还可以选取多种数据类型,只需要传递一个列表即可:




你还可以用来排除特定的数据类型:



将字符型转换为数值型

让我们来创建另一个示例DataFrame:




这些数字实际上储存为字符型,导致其数据类型为object:




为了对这些列进行数学运算,我们需要将数据类型转换成数值型。你可以对前两列使用astype()函数




但是,如果你对第三列也使用这个函数,将会引起错误,这是因为这一列包含了破折号(用来表示0)但是pandas并不知道如何处理它。

你可以对第三列使用to_numeric()函数,告诉其将任何无效数据转换为NaN:




如果你知道NaN值代表0,那么你可以fillna()函数将他们替换成0:




最后,你可以通过apply()函数一次性对整个DataFrame使用这个函数:




仅需一行代码就完成了我们的目标,因为现在所有的数据类型都转换成float:



减小DataFrame空间大小


pandas DataFrame被设计成可以适应内存,所以有些时候你可以减小DataFrame的空间大小,让它在你的系统上更好地运行起来。


这是drinks这个DataFrame所占用的空间大小:




可以看到它使用了30.4KB。


如果你对你的DataFrame有操作方面的问题,或者你不能将它读进内存,那么在读取文件的
过程中有两个步骤可以使用来减小DataFrame的空间大小。


第一个步骤是只读取那些你实际上需要用到的列,可以调用usecols参数:




通过仅读取用到的两列,我们将DataFrame的空间大小缩小至13.6KB。


第二步是将所有实际上为类别变量的object列转换成类别变量,可以调用dtypes参数:




通过将continent列读取为category数据类型,我们进一步地把DataFrame的空间大小缩小至2.3KB。


值得注意的是,如果跟行数相比,category数据类型的列数相对较小,那么catefory数据类型可以减小内存占用。


按行从多个文件中构建DataFrame

假设你的数据集分化为多个文件,但是你需要将这些数据集读到一个DataFrame中。


举例来说,我有一些关于股票的小数聚集,每个数据集为单天的CSV文件。这是第一天的:




这是第二天的:




这是第三天的:




你可以将每个CSV文件读取成DataFrame,将它们结合起来,然后再删除原来的DataFrame,但是这样会多占用内存且需要许多代码


更好的方式为使用内置的glob模块。你可以给glob()函数传递某种模式,包括未知字符,这样它会返回符合该某事的文件列表。在这种方式下,glob会查找所有以stocks开头的CSV文件:




glob会返回任意排序的文件名,这就是我们为什么要用Python内置的sorted()函数来对列表进行排序。


我们以生成器表达式用read_csv()函数来读取每个文件,并将结果传递给concat()函数,这会将单个的DataFrame按行来组合:




不幸的是,索引值存在重复。为了避免这种情况,我们需要告诉concat()函数来忽略索引,使用默认的整数索引:



按列从多个文件中构建DataFrame


上一个技巧对于数据集中每个文件包含行记录很有用。但是如果数据集中的每个文件包含的列信息呢?


这里有一个例子,dinks数据集被划分成两个CSV文件,每个文件包含三列:




同上一个技巧一样,我们以使用glob()函数开始。这一次,我们需要告诉concat()函数按列来组合:




现在我们的DataFrame已经有六列了。


作者:『博客园』山阴少年 

www.cnblogs.com/jclian91/p/12305471.html

- End -


由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:


(1)点击页面最上方“小詹学Python”,进入公众号主页。


(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。


感谢支持,比心。


浏览 46
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报