首页 > 编程知识 正文

python中数据清洗,用python做数据清洗

时间:2023-05-05 14:06:24 阅读:205448 作者:1149

python数据分析-数据清洗与整理 又开始我的好好学习之旅,这周学习数据分析,居老师日常动力! 今天要跟着无限的冬天(公众号:luoluopan1)学pandas数据清洗、合并、重塑以及字符串处理,数据均来自无限的冬天,敲棒~ 1.数据清洗 处理缺失值

第一步:找出缺失值
主要通过 **isnull **和 **notnull **方法返回 **布尔值 **来判断什么位置有缺失值
(注:使用juypter notebok)

from pandas import DataFrame,Seriesimport pandas as pd import numpy as npdf = DataFrame([[3,4,5],[1,6,np.nan],['xxj','xf',np.nan],[np.nan,'a','b']])df.isnull()df.notnull()


通过sum可以获得每一列的缺失值数量,在通过sum可以获得整个DataFrame的缺失值数量

df.isnull().sum()df.isnull().sum().sum()


通过info的方法可以获得整个DataFrame的数据缺失情况

第二步:处理缺失值
主要有删除缺失值、填充缺失值两种方法
(1) 可通过dropna方法删除有缺失值的所在行,记住是所在整个行

dropna方法可传入参数,传入how=‘all’,则会删除全部都为NAN的行,还是整个行

df2 = DataFrame(np.arange(12).reshape(3,4))df2[3]=np.nandf2.iloc[2,:]=np.nandf2.dropna(how='all')


如果想删除包含缺失值的所在整个列,同样传入参数axis=1即可

df2.dropna(how='all',axis=1)


(2) 填充缺失值
有时候我们不能删除数据时,可以通过fillna方法替换缺失值

df.fillna(0)



在fillna中传入字典结构可针对不同的列填充不同的值,注意针对的是列

但是这里对原始数据df2没有进行修改,可通过inplace对原数据进行修改

fillna还有很多参数,可以通过“?”来查询

df.fillna?

移除重复数据

尤其是爬虫过程中由于网络原因可以会有重复值,通过duplicated方法判断是否有重复值

通过drop_duplicates()方法删除重复项

每行每个字段都一样才会认为是重复项
我们可以通过指定部分列作为判断重复的依据

drop_duplicates()方法也是一样的

通过上面可以发现,总是保留最先出现的,可通过传入keep='last’保留最后一个出现的组合,虽然感觉保留谁反正都是一样的。。。。。= =

替换值

通过replace进行替换,传入方式可以是列表、字典

函数

map:将函数套用在Series的 每个元素中;
apply:将函数要用在DataFrame的行和列上;
applymap:讲函数套用在DataFrame的每个元素上
这里可以用map,也可以用apply

data = { 'name':['yydsj','bldmg','王五','yydsj'], 'math':[78,89,94,56]}df = DataFrame(data)def f(x): if x>= 90: return '棒!' elif 70<=x<90: return '一般般!' elif 60<=x<70: return '差!' else: return '没救了!' df['class'] = df['math'].map(f)df 检测异常值

通常使用可视化来看不正常的数据,但不代表所有离群点都是异常值,可能他本来就是这样的
通常会用散点图来观察plot(kind=‘scatter’)

虚拟变量

在机器学习中,只有数值型的数据才能被学习,对于一些分类变量则需要转换成虚拟变量(也就是0,1矩阵,有是1,没有是0),通过get_dummies函数即可实现

df = DataFrame({ '朝向':['东','南','西','东','北','东'], '价格':[1200,2300,2100,2900,1400,5600]})pd.get_dummies(df['朝向'])


对于多类别的数据而言,需要通过函数来解决,dummies没有办法直接处理

dummies = df2['朝向'].apply(lambda x : Series(x.split('/')).value_counts())dummies = dummies.fillna(0).astype(int)dummies

2.数据合并和重塑 merge合并

通过merge函数按照一个或多个键将两个DataFrame按行合并起来
连接方式有:inner内连接,left左连接,right右连接,outer外连接
merge默认是inner,即返回的为交集,只连接都有的值

可以指定按什么键链接

pd.merge(amount,price,on='fruit')pd.merge(amount,price,left_on='fruit2',right_on='fruit1')


不同的连接方式:

以上是多对一的连接,因为price的fruit都是唯一值,如果是多对多,则会出现笛卡尔积

可以通过多个键进行合并

合并时可能存在重名,默认操作是加后缀 _x_y
我们也可以利用suffixes进行自定义

可能连接的键是在DataFrame的索引上,可通过left_index=True或者right_index=True来指定索引作为连接键

DataFrame有join方法,可以按索引合并

注:列表名不能一样,这里是value1和value2,如果一样会报错

concat连接

如果合并的数据没有连接键,则不能使用merge,可以使用concat方法
默认情况下concat是axis=0,即垂直连接进行堆积

也可以水平连接

这样进行连接,在pd里会生成DataFrame,类似于外连接
concat只有内连接和外连接,通过join=‘inner’实现内连接

通过join_axes=[]来改变索引的顺序

连接对象在结果中是无法分开的,可通过keys参数给连接的对象创建一个层次化索引

如果按列进行连接,keys就成了列索引

combine_first合并

如果需要合并的两个DataFrame存在重复的列索引,可以使用combine_first方法,类似于打补丁。

4. 数据重塑

两个常用方法:stack方法将DF的列“旋转”为行,unstack方法将DF的行“旋转”为列

df = DataFrame(np.arange(9).reshape(3,3), index=['a','b','c'], columns=['one','two','three'])df.index.name = 'alpha'df.columns.name = 'number'result = df.stack()result


df.unstack是互逆的
默认下,数据重塑操作都是最内层的,也可以通过级别的编号和名称制定其他级别进行重塑

数据重塑的操作是最内层的,操作结果也是使旋转轴位于最低级别

3. 字符串处理

字符串方法,通过使用pandas中str属性

字符串处理还可以用正则表达式

4. 综合案例

第一步:数据来源
Iris(鸢尾花卉)数据

第二步:定义问题
按照鸢尾花特征分出鸢尾花的分类
第三步:清洗数据
(1)检查数据是否有异常
对数据进行简单描述,用describe()函数

通过unique函数检查类别有几种(数据被修改过方便做练习——《从零开始学python数据分析》)
应该是三种类别,这里有5种,可以发现类别的名字写错了,应该是Iris_setosa,Iris_virginica,Iris_versicolor这三种。

对原始数据进行修改

iris_data.loc[iris_data['class']=='versicolor','class']='Iris-versicolor'iris_data.loc[iris_data['class']=='Iris-setossa','class']='Iris-setosa'

sns.pairplot(iris_data,hue='class')


先观察第一列:有几个Iris_versicolor样本中的sepal_length_cm偏离了大部分数据

切数据均小于0.1,通过索引选取Iris_versicolor样本中sepal_length_cm值小于0.1的数据,且假设这些数据是因为单位设置问题,即*100

iris_data.loc[(iris_data['class']=='Iris-versicolor') & (iris_data['sepal_length_cm'] < 0.1),'sepal_length_cm'] *=100iris_data.loc[(iris_data['class']=='Iris-versicolor')]


观察第二行:一个Iris_setosa样本的sepal_width_cm偏离了大部分的点

通过对Iris_setosa的花萼宽度回执直方图进行观察

为了观察的更仔细,可以发现异常值都大于2.5cm,所以先把小于2.5cm的过滤掉

(2)检查数据是否有缺失
可以发现其中花瓣宽度有5条缺失值

把缺失值删除掉

注:inplace是指在原始数据进行修改
最后对清洗好的数据进行保存,一遍后续的数据探索

第四步:数据探索
还是利用之前的散点矩阵代码,对新的数据进行可视化

还可以绘制其他的图形,如直方图

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。