查看原文
其他

提升效率,这十个Pandas技巧必不可少!

Shiu-Tang Li Python大本营 2019-03-31

译者 | 风车云马

责编 | Jane

出品 | Python大本营(ID:pythonnews)


【导语】Pandas 是一个被广泛使用,用于处理结构化数据的 Python 包。虽然已经有很多优质的教程供大家学习,但这次我还是想给大家介绍一些很酷的、可能还不为大家熟悉的技巧,我相信这些小技巧会提升大家处理数据时的效率。


1、read_csv


大家都知道这个命令。但是,如果你要读取的数据量很大时,你可以尝试使用一下这个参数:nrows = 5。在实际加载整个数据表之前,只读取表的一小部分。然后,您可以快速发现一些问题,避免使用错误的分隔符 (表并不都是用逗号分隔)。


或者,您可以在 Linux 中使用 head 命令检查任何文本的前 5 行(比如:head - c5 data.txt)


然后,可以使用 df.columns.tolist() 提取所有列,使用 usecols = [' c1 ', ' c2 ',…] 参数来加载所需的列。此外,如果你知道特定列的数据类型,还可以通过添加参数 dtype = {' c1 ': str, ' c2 ': int,…},这样加载速度会更快。这个类型参数的另一个优点是,如果同时存在包含字符串和数字的列,那么将类型作以声明是一个很好的方法,当使用该列作为 key 合并表时就不会出现错误。


2、select_dtypes


在使用 Python 做数据预处理时,这个命令会帮你节省时间。在读取表后,每列的默认数据类型可以是 bool、int64、float64、object、category、timedelta64 或者datetime64。你可以先用该命令获取所有数据类型:


df.dtypes.value_counts()


然后执行以下操作,选择所需特征的子数据集。


df.select_dtypes(include=[‘float64’, ‘int64’])


3、copy


这是一个非常重要的命令。如果你执行以下命令:


import pandas as pd
df1 = pd.DataFrame({ ‘a’:[0,0,0], ‘b’: [1,1,1]})
df2 = df1
df2[‘a’] = df2[‘a’] + 1
df1.head()


会发现 df1 发生了变化。这是因为 df2 = df1 不是复制 df1 并将其赋值给df2,而是设置一个指向 df1 的指针。所以 df2 的任何变化都会导致 df1的变化。要解决这个问题,可以使用下面的两种方法:


df2 = df1.copy()


或者


from copy import deepcopy
df2 = deepcopy(df1)


4、map


这是实现简单数据的转换中一个很 cool 的方法。首先定义一个字典,其中' keys '是旧值,' values '是新值。


level_map = {1: ‘high’, 2: ‘medium’, 3: ‘low’}
df[‘c_level’] = df[‘c’].map(level_map)


5、apply


如果我们想通过输入其他一些列值来创建一个新列,那么 apply 函数会非常有用。


def rule(x, y):
    if x == ‘high’ and y > 10:
         return 1
    else:
         return 0
df = pd.DataFrame({ 'c1':[ 'high' ,'high''low''low'], 'c2': [023174]})
df['new'] = df.apply(lambda x: rule(x['c1'], x['c2']), axis =  1)
df.head()


在上面的代码中,我们定义了一个(x,y)二输入变量的函数,并使用apply 函数将其应用于“c1”列和“c2”列。


但问题是,apply 方法有时候太慢了。比如,你想计算两列“c1”和“c2”的最大值,可以这样做:


df[‘maximum’] = df.apply(lambda x: max(x[‘c1’], x[‘c2’]), axis = 1)


但是它比下面的这个命令慢得多:


df[‘maximum’] = df[[‘c1’,’c2']].max(axis =1)


注意:如果能用其他内置函数完成相同的程序,就尽量不要用 apply,因为内置函数通常更快。例如,想要将列' c '四舍五入为整数,可以使用 round(df[‘c’], 0),而不是 apply 函数。


6、value counts


这是一个统计查看值分布情况的命令。如果您想看一下“c”列中有多少不同的值,以及每个值出现的频率,可以这样做:


df[‘c’].value_counts()


下面还给大家总结了一些有用的技巧:


A.   normalize = True:此句用于检查频率而不是计数。

B.   dropna = False:可以在统计中包含缺失值。

C.   sort = False:统计信息按值排序而不是按计数排序。

D.    df[‘c].value_counts().reset_index():将统计表转换为 panda 数据表再处理。


7、缺失值统计


在构建模型时,如果想要排除缺失值或有缺失值所属的行,可以使用.isnull() 和 .sum() 来处理。


import pandas as pd
import numpy as np

df = pd.DataFrame({ ‘id’: [1,2,3], ‘c1’:[0,0,np.nan], ‘c2’: [np.nan,1,1]})
df = df[[‘id’, ‘c1’, ‘c2’]]
df[‘num_nulls’] = df[[‘c1’, ‘c2’]].isnull().sum(axis=1)
df.head()


8、选择具有特定 id 的行


在SQL中,我们可以使用 SELECT * FROM … WHERE ID in (‘A001’, ‘C022’, …) 来获取具有特定 ID 的记录。在 Pandas 中你可以这么做:


df_filter = df[‘ID’].isin([‘A001’,‘C022’,...])
df[df_filter]


9、分组:按照百分比


给一个数值列,希望对该列中的值进行分组,比如前 5% 的值分为 组1,5% - 20% 的值分为 组2,20% -50% 的值分为 组3,剩余 50% 的值分为组4。当然 Pandas 有很多种方法,但在这里提供一种新方法,其运行速度会很快(因为没有使用 apply 函数):


import numpy as np
cut_points = [np.percentile(df[‘c’], i) for i in [508095]]
df[‘group’] = 1
for i in range(3):
    df[‘group’] 
= df[‘group’] + (df[‘c’] < cut_points[i])
# or <= cut_points[i]


10、to_csv


这是一个大家都会用到的通用的命令。不过我会再单独指出两个使用技巧,第一个是:


print(df[:5].to_csv())


此命令可以准确地打印出将要写入文件的前五行数据。


另一个技巧是 float_format=‘%.0f’。


用于处理整数值和空缺值混合在一起的情况。如果一列同时包含缺失值和整数值,那么写入的数据类型仍然是 float 而不是 int 型。在导出数据表时,可以通过添加 float_format=‘%.0f’ 将所有浮点数四舍五入为整数。如果希望所有列输出的都是整数,那么这个技巧也可以帮你摆脱烦人的 ‘.0’ 格式。


上面的这十个技巧并不是新出现的,也许你也曾在处理数据过程中使用了它们,不过如何可以更巧妙地使用,希望这篇文章给大家新的 idea,下次项目时可以验证一下是否好用,也欢迎大家与我们交流你的经验。

原文链接:

https://towardsdatascience.com/10-python-pandas-tricks-that-make-your-work-more-efficient-2e8e483808ba


(*本文为Python大本营翻译文章,转载请联系微信1092722531)


2019Python开发者日

4月13-14日,CSDN将在北京主办“Python开发者日(2019)”,汇聚十余位来自阿里巴巴、IBM、英伟达等国内外一线科技公司的Python技术专家,还有数百位来自各行业领域的Python开发者,共同探讨Python在不同场景下的的应用优势和实战经验。


目前演讲嘉宾议题已确认,扫描海报二维码,即刻抢购7折优惠票价!更多详细信息请咨询13581782348(微信同号)。



你也可以点击阅读原文,查看大会详情。

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存