Python Pandas的使用 !!!!!詳解

佟大帥 發表於 2021-10-13
Python Pandas

Python Pandas的使用 !!!!!詳解

 Pandas是一個基於python中Numpy模組的一個模組

Python在資料處理和準備⽅⾯⼀直做得很好,但在資料分析和建模⽅⾯就差⼀些。pandas幫助填補了這⼀空⽩,使您能夠在Python中執⾏整個資料分析⼯作流程,⽽不必切換到更特定於領域的語⾔,如R。與出⾊的 jupyter⼯具包和其他庫相結合,Python中⽤於進⾏資料分析的環境在效能、⽣產率和協作能⼒⽅⾯都是卓越的。
pandas是 Python 的核⼼資料分析⽀持庫,提供了快速、靈活、明確的資料結構,旨在簡單、直觀地處理關係型、標記型資料。pandas是Python進⾏資料分析的必備⾼級⼯具。
pandas的主要資料結構是 Series(⼀維資料)與 DataFrame (⼆維資料),這兩種資料結構⾜以處理⾦融、統計、社會科學、⼯程等領域⾥的⼤多數案例處理資料⼀般分為⼏個階段:資料整理與清洗、資料分析與建模、資料視覺化與製表,Pandas 是處理資料的理想⼯具。
環境介紹
程式碼工具:jupyternotebook
python版本:python3.8.6
系統版本:win10
一、Pands安裝 
  開啟終端指令輸入pip install -i https://pypi.doubanio.com/simple/ --trusted-host pypi.doubanio.com pandas
  Python Pandas的使用 !!!!!詳解
第⼆部分 資料結構
  第⼀節 Series
    ⽤列表⽣成 Series時,Pandas 預設⾃動⽣成整數索引,也可以指定索引
l = [0,1,7,9,np.NAN,None,1024,512]
# ⽆論是numpy中的NAN還是Python中的None在pandas中都以缺失資料NaN對待
s1 = pd.Series(data = l) # pandas⾃動新增索引
s2 = pd.Series(data = l,index = list('abcdefhi'),dtype='float32') # 指定⾏索引
# 傳⼊字典建立,key⾏索引
s3 = pd.Series(data = {'a':99,'b':137,'c':149},name = 'Python_score')
display(s1,s2,s3)
  第二節 Dataframe    
    DataFrame是由多種型別的列構成的⼆維標籤資料結構,類似於 Excel 、SQL 表,或 Series 物件構成的字典。
    
import numpy as np
import pandas as pd
# index 作為⾏索引,字典中的key作為列索引,建立了3*3的DataFrame表格⼆維陣列
df1 = pd.DataFrame(data = {'Python':[99,107,122],'Math':[111,137,88],'En': [68,108,43]},# key作為列索引
index = ['張三','李四','Michael']) # ⾏索引
df2 = pd.DataFrame(data = np.random.randint(0,151,size = (5,3)),
index = ['Danial','Brandon','softpo','Ella','Cindy'],# ⾏索引
columns=['Python','Math','En'])# 列索引
display(df1,df2)

    Python Pandas的使用 !!!!!詳解

第三部分 資料檢視
  檢視DataFrame的常⽤屬性和DataFrame的概覽和統計資訊
import numpy as np
import pandas as pd
df = pd.DataFrame(data = np.random.randint(0,151,size=(150,3)),
index = None, # 行索引預設
columns=['A','B','C'])#列索引
df.head(10)#顯示前十行  !!預設是五行!!
df.tail(10)#顯示後十行
df.shape#檢視行數和列數
df.dtypes#檢視資料型別
df.index#檢視行索引
df.value# 物件值,二維陣列
df.describe()#檢視資料值列的彙總統計,計數,平均值,標準差,最小值,四分位數,最大值
df.info()#檢視列索引,資料型別,非空計數和記憶體資訊

第四部分 資料的輸入輸出

  第一節csv

df = DataFrame(data = np.random.randint(0,50,size = [50,5]), # 薪資情況
 columns=['IT','化⼯','⽣物','教師','⼠兵'])
#儲存到相對路勁下檔案命名為
df.to_csv('./salary.csv',
sep = ';',#分割符
header = True,#是否儲存列索引
index = True)#是否儲存行索引、
#載入
pd.read_csv('./salary.csv',
 sep = ';',# 預設是逗號
 header = [0],#指定列索引
 index_col=0) # 指定⾏索引
#載入
pd.read_table('./salary.csv', # 和read_csv類似,讀取限定分隔符的⽂本⽂件 sep = ';', header = [0],#指定列索引 index_col=1) # 指定⾏索引,IT作為⾏索引

   第⼆節 Excel

     pip install xlrd -i https://pypi.tuna.tsinghua.edu.cn/simple
     pip install xlwt -i https://pypi.tuna.tsinghua.edu.cn/simple
import numpy as np
import pandas as pd
df1 = pd.DataFrame(data = np.random.randint(0,50,size = [50,5]), # 薪資情況
 columns=['IT','化⼯','⽣物','教師','⼠兵'])
df2 = pd.DataFrame(data = np.random.randint(0,50,size = [150,3]),# 計算機科⽬的考試成績
 columns=['Python','Tensorflow','Keras'])
# 儲存到當前路徑下,⽂件命名是:salary.xls
df1.to_excel('./salary.xls',
 sheet_name = 'salary',# Excel中⼯作表的名字
 header = True,# 是否儲存列索引
 index = False) # 是否儲存⾏索引,儲存⾏索引
pd.read_excel('./salary.xls',
 sheet_name=0,# 讀取哪⼀個Excel中⼯作表,預設第⼀個
 header = 0,# 使⽤第⼀⾏資料作為列索引
 names = list('ABCDE'),# 替換⾏索引
 index_col=1)# 指定⾏索引,B作為⾏索引
# ⼀個Excel⽂件中儲存多個⼯作表
with pd.ExcelWriter('./data.xlsx') as writer:
 df1.to_excel(writer,sheet_name='salary',index = False)
 df2.to_excel(writer,sheet_name='score',index = False)
pd.read_excel('./data.xlsx',
 sheet_name='salary') # 讀取Excel中指定名字的⼯作表
  第三節 SQL
    pip install sqlalchemy -i https://pypi.tuna.tsinghua.edu.cn/simple
    pip install pymysql -i https://pypi.tuna.tsinghua.edu.cn/simple
import pandas as pd
# SQLAlchemy是Python程式設計語⾔下的⼀款開源軟體。提供了SQL⼯具包及物件關係對映(ORM)⼯具
from sqlalchemy import create_engine
df = pd.DataFrame(data = np.random.randint(0,50,size = [150,3]),# 計算機科⽬的考試
成績
 columns=['Python','Tensorflow','Keras'])
# 資料庫連線
conn = create_engine('mysql+pymysql://root:[email protected]/pandas?
charset=UTF8MB4')
# 儲存到資料庫
df.to_sql('score',#資料庫中表名
 conn,# 資料庫連線
 if_exists='append')#如果表名存在,追加資料
# 從資料庫中載入
pd.read_sql('select * from score limit 10', # sql查詢語句
 conn, # 資料庫連線
 index_col='Python') # 指定⾏索引名

 

---------------------------------------------!!!!!!!!!第一次更新!!!!!!!!!!!----------------------------------------------------------

 

第五部分 資料的選取

  第一節 資料獲取

!!!---先匯入個資料---!!!
df = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),# 計算機科⽬的考試成績
index = list('ABCDEFGHIJ'),# ⾏標籤
columns=['Python','Tensorflow','Keras'])

Python Pandas的使用 !!!!!詳解

df.Python# 檢視所在列資料
df['Python']# 檢視所在列資料
df[['Python','Keras']]#獲取多列資料
df[1:3]#行切片操作 !!!--此處切片操作與資料的切片操作如出一轍--!!!

Python Pandas的使用 !!!!!詳解Python Pandas的使用 !!!!!詳解

  使用 loc[] 進行資料獲取 loc通過行列標籤進行索引取數操作

df.loc[['A','B']]#選取行標籤
df.loc[['A','B'],['Python','Keras']]#根據行列標籤選取對飲資料
df.loc[:,['Python','Keras']]#保留所有行
df.loc[::2,['Python','Keras']]#每隔2行取出一行資料
df.loc['A',['Python','Keras']]#根據行標籤選取出對應資料
#此處就不截圖展示了

  使用 iloc[] 進行資料獲取 iloc通過行列整數標籤進行索引取數操作

df.iloc[2:4]#利用整數行切片操作與Numpy相似 !!!--此處切片操作與資料的切片操作如出一轍--!!!
df.iloc[1:3,1:2]#利用整數對行和列進行切片
df.iloc[1:3:]#行切片
df.iloc[:,0:1]#列切片

  Boolean索引

cond1 = df.Python > 100 # 判斷Python分數是否⼤於100,返回值是boolean型別的Series
df[cond1] # 返回Python分數⼤於100分的⽤戶所有考試科⽬資料
cond2 = (df.Python > 50) & (df['Keras'] > 50) # &與運算
df[cond2] # 返回Python和Keras同時⼤於50分的⽤戶的所有考試科⽬資料
df[df > 50]# 選擇DataFrame中滿⾜條件的值,如果滿⾜返回值,不然返回空資料NaN
df[df.index.isin(['A','C','F'])] # isin判斷是否在陣列中,返回也是boolean型別值

第六部分 資料整合

  第⼀節 concat資料串聯

#再建立兩個資料矩陣
df1 = pd.DataFrame(np.random.randint(1,151,size=10),
                   index = list('ABCDEFGHIJ'),
                   columns=['Science'])
df2 = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),
index = list('KLMNOPQRST'),
columns=['Python','Tensorflow','Keras']) 
pd.concat([df,df2],axis=0)#df2串聯拼接到df1下方
pd.concat([df,df1],axis=1)#df1串聯拼接到df的左側
df.append(df1) # 在df1後⾯追加df2

  第二節 插入

     insert()插入一列

    注意:如果使用insert()插入一列時,那麼插入的這一列的長度必須和被插入的行數長度相等

#插入一列c++
df.insert(loc=1,
          column='C++',
          value=np.random.randint(0,151,size=(10)))

df.insert(loc = 1,column='Python3.8,value=2048)

  第三節 資料的連結(join SQL風格)

    資料集的合併(merge)或連線(join)運算是通過⼀個或者多個鍵將資料連結起來的。這些運算是關係型資料庫的核⼼操作。pandas的merge函式是資料集進⾏join運算的主要切⼊點。
#先建立兩組資料
df1 = pd.DataFrame(data = {'sex':np.random.randint(0,2,size=6),'name':['九州','九周','Nineweek','Mrs佟','小A','小C']})
df2 = pd.DataFrame(data = {'score':np.random.randint(90,151,size=6),'name':['九州','九周','Nineweek','Mrs佟','小A','小Ming']})

Python Pandas的使用 !!!!!詳解    Python Pandas的使用 !!!!!詳解

pd.merge(df1,df2)
#(內連線) 在使用merge()合併中merge自動去除了空資料
pd.merge(df1,df2,how='left')#左連結
pd.merge(df1,df2,how='right')#右連結

Python Pandas的使用 !!!!!詳解Python Pandas的使用 !!!!!詳解Python Pandas的使用 !!!!!詳解

 

 ---------------------------------------------!!!!!!!!!第二次更新!!!!!!!!!!!----------------------------------------------------------

 第七部分 資料清洗

  第⼀節 duplicated篩選重複資料

    duplicated是以自上向下的順序進行篩選如果行值相同就返回TRUE。

#建立一個分值資料
df2 = pd.DataFrame(data={'Name':['九州','Mrs佟','Nineweek',None,np.NAN,'Mrs佟'],'Sex':[0,1,0,1,0,1],'Score':[89,100,67,90,98,100]})

Python Pandas的使用 !!!!!詳解

df2.duplicated()#檢查重複值 以Boolean形式進行輸出展示
df2.duplicated().sum()#列印有多少重複值
df2[df2.duplicated()]#列印重複值
df2[df2.duplicated()==False]#列印非重複值
df2.drop_duplicates()#刪除重複值(此操作並不是在資料來源本身進行刪除操作)
df2.drop_duplicates(inplace=True)#刪除重複值(此操作是在資料來源本身進行刪除操作)

  第二節 過濾空資料

df2.isnull()#檢查是否存在空值(可以查到NAN值和None值)
df2.dropna(how = 'any') # 刪除空資料(此操作並不是在資料來源本身進行刪除操作) 
df2.dropna(how = 'any',inplace=True)# 刪除空資料(此操作是在資料來源本身進行刪除操作) 
df2.fillna(value='小A')#填充空資料(此操作並不是在資料來源本身進行刪除操作) 
df2.fillna(value='小A',inplace=True)#填充空資料(此操作是在資料來源本身進行刪除操作) 

  第三節 過濾指定行或列

del df2['Sex'] # 直接刪除某列
df2.drop(labels = ['price'],axis = 1)# 刪除指定列
df2.drop(labels = [0,1,5],axis = 0) # 刪除指定⾏

  filter函式:選取保留的資料過濾其他資料

df2.filter(items=['Name', 'Score'])#保留‘Name’,‘Score’兩列
df2.filter(like='S',axis = 1)# 保留列標籤包含‘S’的列(axis=1表示列,axis=0表示行)
df.filter(regex='S$', axis=1)#正則方式進行篩選

 第八部分 資料轉換

  第一節 rename和replace的轉換標籤個元素

#改變行列索引
df2.rename(index = {0:10,1:11},columns={'Name':'StName'})#將行索引0換為10,1換為11;列索引Name換為StName
#替換元素值
df2.replace(100,102)#將所有的100替換為102
df2.replace([89,67],78)#將所有的89和67替換為78
df2.replace({'九州':'JZ',None:'九州'})#根據字典的鍵值對進行替換
df2.replace({'Sex':1},1024)#將Sex列的1全部替換為1024

  第二節 apply和Transform

    相同點:都能針對Dataframe的特徵的計算,常與groupby()分組聚合方式下節更新方法連用

    不同點:aplly引數可以是自定義函式,包括簡單的求和函式以及複製的特徵間的差值函式等。apply不能直接使用python的內建函式,比如sum、max、min。

        Transform引數不能是自定義的特徵互動函式,因為transform是針對每一元素(即每一列特徵操作)進行計算。

#先建立陣列
df = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),index = list('ABCDEFGHIJ'),columns=['Python','En','Math'])

Python Pandas的使用 !!!!!詳解

df['Python'].apply(lambda x:True if x >50 else False)#選取python學科中的大於50的資料
df.apply(lambda x : x.median(),axis = 0) # 列的中位數

Python Pandas的使用 !!!!!詳解

#自定義函式演算法
def avg(x):
    return (x.mean(),x.max(),x.min(),x.var().round(1))
df.apply(avg,axis=0)#輸出列的平均值,最大值,最小值,方差保留一位小數

Python Pandas的使用 !!!!!詳解

# ⼀列執⾏多項計算
df['Python'].transform([np.sqrt,np.log10]) # 對單列資料處理做開平方和對數運算

Python Pandas的使用 !!!!!詳解

#自定義函式演算法
def convert(x):
    if x > 140:
        x -= 12
    else:
        x += 12
    return x

df.transform({'Python':np.sqrt,'En':np.log10,'Math':convert}).round(1)# 對多列資料處理做開不同運算

Python Pandas的使用 !!!!!詳解


 ---------------------------------------------!!!!!!!!!第三次更新!!!!!!!!!!!----------------------------------------------------------

第九部分 資料重塑

df = pd.DataFrame(data = np.random.randint(0,150,size = [20,3]),
 index = pd.MultiIndex.from_product([list('ABCDEFHIJK'),['一期','二期']]),# 多層索引
 columns=['Python','En','Math'])

Python Pandas的使用 !!!!!詳解

df.unstack(level=1)#行作列
df.stack()#列作行
df.mean(level=1)#各學科每期平均分
df.mean(level=0)#各學員平均分
df.mean()#各科平均分

第十部分 統計方法函式

  pandas擁有多種常⽤的數學統計⽅法。可以滿足大多半的資料處理,對Series和DataFrame行計算並返回Series形式的陣列
#建立資料
df = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),
 index = list('ABCDEFGHIJ'),
 columns=['Python','En','Math'])

df.count() # ⾮NA值的數量
df.max(axis = 0) #軸0最⼤值,即每⼀列最⼤值
df.min() #預設計算軸0最⼩值
df.median() # 中位數
df.sum() # 求和
df.mean(axis = 1) #計算每⼀⾏的平均值
df.quantile(q = [0.2,0.5,0.9]) # 分位數
df.describe() # 檢視數值型列的彙總統計,計數、平均值、標準差、最⼩值、四分位數、最⼤值
df['Python'].value_counts() # 統計元素出現次數
df['Math'].unique() # 去重
df.cumsum() # 累加
df.cumprod() # 累乘
df.std() # 標準差
df.var() # ⽅差
df.cummin() # 累計最⼩值
df.cummax() # 累計最⼤值
df.diff() # 計算差分
df.pct_change() # 計算百分⽐變化
df.cov() # 屬性的協⽅差
df['Python'].cov(df['Math']) # Python和Math的協⽅差
df.corr() # 所有屬性相關性係數
df.corrwith(df['En']) # 單⼀屬性相關性係數
#標籤索引計算方式
df['Python'].argmin() # 計算Python列的最⼩值位置
df['Math'].argmax() # 計算Math列的最⼤值位置
df.idxmax() # 最⼤值索引標籤
df.idxmin() # 最⼩值索引標籤

第十一部分 排序

#建立資料
df = pd.DataFrame(data = np.random.randint(0,150,size = [10,3]),
 index = list('ABCDEFGHIJ'),
 columns=['Python','En','Math'])
ran = np.random.permutation(10)
df = df.take(ran)#隨機排列行索引

Python Pandas的使用 !!!!!詳解

df.sort_index(axis=0,ascending=True)#按照行索引降序排序
df.sort_index(axis=1,ascending=True)#按照列索引降序排序

Python Pandas的使用 !!!!!詳解Python Pandas的使用 !!!!!詳解

df.sort_values(by='Python')#根據Python列的值降序排序
df.sort_values(by=['Python','Math'])#先按找Python排序在按照Math排序
lage = df.nlargest(3,columns='Math') # 根據屬性Math排序,返回最⼤3個資料
samll = df.nsmallest(3,columns='Python') # 根據屬性Python排序,返回最⼩3個資料
display(lage,samll)

Python Pandas的使用 !!!!!詳解

 第十二部分 cut與qcut的分箱處理

  cut函式對資料進行分箱處理的操作, 也就是 把一段連續的值切分成若干段,每一段的值看成一個分類。這個把連續值轉換成離散值的過程,我們叫做分箱處理cut會按照資料值由大到小的順序將資料分割為若干分,並且使每組範圍大致相等

   qcut是按變數的數量來對變數進行分割,並且儘量保證每個分組裡變數的個數相同。

df['py_cut'] = pd.cut(df.Python,bins=4)#按照資料範圍分箱
df['en_cut'] = pd.cut(df.En,bins=4)#按照資料個數分箱
df['q_評級'] = pd.qcut(df.Python,q = 4,# 4等分
 labels=['','','','']) # 分箱後分類
df['c_評級'] = pd.cut(df.En,#分箱資料
 bins = [0,60,90,120,150],#分箱斷點
 right = False,# 左閉右開原則
 labels=['','','',''])# 分箱後分類

Python Pandas的使用 !!!!!詳解

 

相關文章