Pandas 是 Python 语言的一个扩展程序库,用于数据分析。
Pandas 是一个开放源码、BSD 许可的库,提供高性能、易于使用的数据结构和数据分析工具。
Pandas 名字衍生自术语 "panel data"(面板数据)和 "Python data analysis"(Python 数据分析)。
Pandas 一个强大的分析结构化数据的工具集,基础是 numpy(提供高性能的矩阵运算)。
Pandas 可以从各种文件格式比如 CSV、JSON、SQL、Microsoft Excel 导入数据。
Pandas 可以对各种数据进行运算操作,比如归并、再成形、选择,还有数据清洗和数据加工特征。
数据结构
Series 是一种类似于一维数组的对象,它由一组数据(各种Numpy数据类型)以及一组与之相关的数据标签(即索引)组成。
DataFrame 是一个表格型的数据结构,它含有一组有序的列,每列可以是不同的值类型(数值、字符串、布尔型值)。DataFrame 既有行索引也有列索引,它可以被看做由 Series 组成的字典(共同用一个索引)。
一、Pandas 安装
安装 pandas 需要基础环境是 Python,开始前我们假定你已经安装了 Python 和 Pip。
pip install pandas
查看pandas的版本
import pandas as pd
print(pd.__version__)
二、Pandas 数据结构 -- Series
pandas.Series( data, index, dtype, name, copy)
data:一组数据(ndarray 类型)。
index:数据索引标签,如果不指定,默认从 0 开始。
dtype:数据类型,默认会自己判断。
name:设置名称。
copy:拷贝数据,默认为 False。
mydataset = { 'sites': ["Google", "Runoob", "Wiki"], 'number': [1, 2, 3] } #将字典类型转化成dataframe类型 myvar = pd.DataFrame(mydataset) print(myvar) print() a = [1, 2, 3] myvar = pd.Series(a) print(myvar) print(myvar[1])#指定索引查询 sites = {1: "Google", 'runoob': "Runoob", 3: "Wiki"} myvar = pd.Series(sites)#使用字典类型创建Series,key的值就成了索引值 print(myvar) print() # 参数index a = ["Google", "Runoob", "Wiki"] myvar = pd.Series(a, index = ["x", "y", "z"])#index指定索引名称 print(myvar) print(myvar['y']) print() sites = {1: "Google", 2: "Runoob", 3: "Wiki"} myvar = pd.Series(sites, index = [3, 2])#使用索引,截取字典中所需的部分 print(myvar) print() # 参数name,设置name属性 sites = {1: "Google", 2: "Runoob", 3: "Wiki"} myvar = pd.Series(sites, index = [1, 2], name="I is series(name)" ) print(myvar)
三、Pandas 数据结构 - DataFrame
pandas.DataFrame( data, index, columns, dtype, copy)
data:一组数据(ndarray、series, map, lists, dict 等类型)。
index:索引值,或者可以称为行标签。
columns:列标签,默认为 RangeIndex (0, 1, 2, …, n) 。
dtype:数据类型。
copy:拷贝数据,默认为 False。
data = [['Google',10],['Runoob',12],['Wiki',13]] df = pd.DataFrame(data,columns=['Site','Age'],dtype=float) # 列表转dataframe print(df) data = {'Site':['Google', 'Runoob', 'Wiki'], 'Age':[10, 12, 13]} df = pd.DataFrame(data) # 字典转dataframe print (df) data = [{'a': 1, 'b': 2},{'a': 5, 'b': 10, 'c': 20}] df = pd.DataFrame(data) print (df) data = { "calories": [420, 380, 390], "duration": [50, 40, 45] } df = pd.DataFrame(data) print(df) print(df.loc[0])# 使用df.loc[]返回第一行 print(df.loc[1])# 使用df.loc[]返回第一行 print(df.loc[[0,1]])# 使用df.loc[[ ]]返回两行数据 print(df.loc[0:1,['calories']])# 使用df.loc[a:b ,[' ']]返回指定某列 a~b的数据 data = { "calories": [420, 380, 390], "duration": [50, 40, 45] } df = pd.DataFrame(data, index = ["day1", "day2", "day3"])#指定索引值 print(df) print(df.loc['day2'])
四、Pandas CSV 文件
1、read_csv() 将csv()文件导入,存在Dataframe对象中
import pandas as pd # pd.read_csv() 读取csv文件 df = pd.read_csv('./nba.csv',encoding='GBK') print(df.to_string()) print(df.loc[:,['Name']])#获取列 # head() print(df.head().to_string())#默认获取前5行 print(df.head(3).to_string())#获取前3行 # tail() print(df.tail().to_string())#默认获取后5行 print(df.head(3).to_string())#获取后3行 # info() 返回表格的一些基本信息 print(df.info())
2、to_csv() 将 DataFrame 存储为 csv 文件
import pandas as pd # 使用 to_csv() 方法将 DataFrame 存储为 csv 文件 nme = ["Google", "Runoob", "Taobao", "Wiki"] st = ["www.google.com", "www.runoob.com", "www.taobao.com", "www.wikipedia.org"] ag = [90, 40, 80, 98] dict = {'name': nme, 'site': st, 'age': ag} df = pd.DataFrame(dict) # print(df) df.to_csv('./aaa.csv')# 保存 dataframe到该文件夹下 df.to_csv(r'C:\Users\Public\Desktop\a1.csv',encoding='utf8')# 保存 dataframe到指定路径 path = r"C:\Users\Public\Desktop" wen = '\ccc.csv' df.to_csv(path+wen,encoding='utf8')
3、to_string() 用于返回 DataFrame 类型的数据,如果不使用该函数,则输出结果为数据的前面 5 行和末尾 5 行,中间部分以 ... 代替。
import pandas as pd
df = pd.read_csv('nba.csv') print(df)
五、Pandas JSON
1、JSON 对象与 Python 字典具有相同的格式,所以我们可以直接将 Python 字典转化为 DataFrame 数据:
import pandas as pd # 字典格式的 JSON s = { "col1":{"row1":1,"row2":2,"row3":3}, "col2":{"row1":"x","row2":"y","row3":"z"} } # 读取 JSON 转为 DataFrame df = pd.DataFrame(s) print(df)
以上实例输出结果为:
col1 col2 row1 1 x row2 2 y row3 3 z
2、从 URL 中读取 JSON 数据:
import pandas as pd URL = 'https://static.runoob.com/download/sites.json' df = pd.read_json(URL) print(df)
六、Pandas 数据清洗
数据清洗是对一些没有用的数据进行处理的过程。
很多数据集存在数据缺失、数据格式错误、错误数据或重复数据的情况,如果要对使数据分析更加准确,就需要对这些没有用的数据进行处理。
在这个教程中,我们将利用 Pandas包来进行数据清洗。
1、Pandas 清洗空值
如果我们要删除包含空字段的行,可以使用 dropna() 方法,语法格式如下:
DataFrame.dropna(axis=0, how='any', thresh=None, subset=None, inplace=False)
参数说明:
axis: 默认为 0,表示逢空值剔除整行,如果设置参数 axis=1 表示逢空值去掉整列。 how: 默认为 'any' 如果一行(或一列)里任何一个数据有出现 NA 就去掉整行,如果设置 how='all' 一行(或列)都是 NA 才去掉这整行。 thresh: 设置需要多少非空值的数据才可以保留下来的。 subset: 设置想要检查的列。如果是多个列,可以使用列名的 list 作为参数。 inplace:如果设置 True,将计算得到的值直接覆盖之前的值并返回 None,修改的是源数据。默认为False
1.1、添加na_values属性指定的某些数据修改为空数据(NaN)
# df = pd.read_csv(r'C:\Users\Administrator\Desktop\property-data.csv') missing_values = ["n/a", "na", "--","N","Y"] df1 = pd.read_csv('./property-data.csv') df2 = pd.read_csv('./property-data.csv',na_values=missing_values)#添加na_values属性指定的某些数据修改为空数据(NaN)
print(df1)
print(df2)
# print(df2['SQ_FT'].isnull())#判断某列中的各个单元格是否为空
1.2、 dropna() 方法 返回一个新的 DataFrame,不会修改源数据。
# 如果你要修改源数据 DataFrame, 可以使用 inplace = True 参数: new_df = df1.dropna()#如果某行中有一个单元格数据为空则删除整行 new_df2 = df1.dropna(subset=['NUM_BATH'])# 某指定列如果有空数据,则删除空数据所在行 print(new_df) # print(new_df2)
1.3、 fillna()方法 来替换一些空字段
df3 = df1.fillna('666') #添加 inplace=True属性会改变源数据 df4 = df1['NUM_BEDROOMS'].fillna('555') #指定某列获取数据并替换空数据 print(df3) print(df4)
1.4、使用 mean() 方法计算列的均值并替换空单元格
x = df1["ST_NUM"].mean() #指定某列进行平均值计算 df1["ST_NUM"].fillna(x, inplace = True)#使用fillna()方法进行数据替换 print(x) print(df1)
1.5、使用 median() 方法计算列的中位数并替换空单元格:
x = df1["PID"].median() df1_1 = df1["PID"].fillna(x) print(x) print(df1_1)
1.6、使用 mode() 方法计算列的众数并替换空单元格
x = df1["PID"].mode() df1["PID"].fillna(x,inplace=True) print(x) print(df1)
2、Pandas 清洗格式错误数据
3、Pandas 清洗错误数据
4、Pandas 清洗重复数据
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pyhton_Pandas教程 - Python技术站