整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          Python數據處理庫pandas入門教程

          Python數據處理庫pandas入門教程

          andas是一個Python語言的軟件包,在我們使用Python語言進行機器學習編程的時候,這是一個非常常用的基礎編程庫。本文是對它的一個入門教程。

          pandas提供了快速,靈活和富有表現力的數據結構,目的是使“關系”或“標記”數據的工作既簡單又直觀。它旨在成為在Python中進行實際數據分析的高級構建塊。

          入門介紹

          pandas適合于許多不同類型的數據,包括:

          • 具有異構類型列的表格數據,例如SQL表格或Excel數據
          • 有序和無序(不一定是固定頻率)時間序列數據。
          • 具有行列標簽的任意矩陣數據(均勻類型或不同類型)
          • 任何其他形式的觀測/統計數據集。

          由于這是一個Python語言的軟件包,因此需要你的機器上首先需要具備Python語言的環境。關于這一點,請自行在網絡上搜索獲取方法。

          關于如何獲取pandas請參閱官網上的說明:pandas Installation(http://pandas.pydata.org/pandas-docs/stable/install.html?spm=a2c4e.11153940.blogcont596296.14.67e04526nmEaeg)。

          通常情況下,我們可以通過pip來執行安裝:

          sudo pip3 install pandas
          

          或者通過conda(http://pandas.pydata.org/pandas-docs/stable/install.html?spm=a2c4e.11153940.blogcont596296.15.67e04526nmEaeg#installing-pandas-with-anaconda) 來安裝pandas:

          conda install pandas
          

          目前(2018年2月)pandas的最新版本是v0.22.0(http://pandas.pydata.org/pandas-docs/stable/whatsnew.html?spm=a2c4e.11153940.blogcont596296.16.67e04526nmEaeg#v0-22-0-december-29-2017)(發布時間:2017年12月29日)。

          我已經將本文的源碼和測試數據放到Github上: pandas_tutorial(https://github.com/paulQuei/pandas_tutorial?spm=a2c4e.11153940.blogcont596296.17.67e04526nmEaeg) ,讀者可以前往獲取。

          另外,pandas常常和NumPy一起使用,本文中的源碼中也會用到NumPy(http://www.numpy.org/?spm=a2c4e.11153940.blogcont596296.18.67e04526nmEaeg)。

          建議讀者先對NumPy有一定的熟悉再來學習pandas。

          核心數據結構

          pandas最核心的就是Series和DataFrame兩個數據結構。

          這兩種類型的數據結構對比如下:

          DataFrame可以看做是Series的容器,即:一個DataFrame中可以包含若干個Series。

          注:在0.20.0版本之前,還有一個三維的數據結構,名稱為Panel。這也是pandas庫取名的原因:pan(el)-da(ta)-s。但這種數據結構由于很少被使用到,因此已經被廢棄了。

          Series

          由于Series是一維結構的數據,我們可以直接通過數組來創建這種數據,像這樣:

          # data_structure.py
          import pandas as pd
          import numpy as np
          series1=pd.Series([1, 2, 3, 4])
          print("series1:\n{}\n".format(series1))
          

          這段代碼輸出如下:

          series1:
          0 1
          1 2
          2 3
          3 4
          dtype: int64
          

          這段輸出說明如下:

          • 輸出的最后一行是Series中數據的類型,這里的數據都是int64類型的。
          • 數據在第二列輸出,第一列是數據的索引,在pandas中稱之為Index。

          我們可以分別打印出Series中的數據和索引:

          # data_structure.py
          print("series1.values: {}\n".format(series1.values))
          print("series1.index: {}\n".format(series1.index))
          

          這兩行代碼輸出如下:

          series1.values: [1 2 3 4]
          series1.index: RangeIndex(start=0, stop=4, step=1)
          

          如果不指定(像上面這樣),索引是[1, N-1]的形式。不過我們也可以在創建Series的時候指定索引。索引未必一定需要是整數,可以是任何類型的數據,例如字符串。例如我們以七個字母來映射七個音符。索引的目的是可以通過它來獲取對應的數據,例如下面這樣:

          # data_structure.py
          series2=pd.Series([1, 2, 3, 4, 5, 6, 7],
           index=["C", "D", "E", "F", "G", "A", "B"])
          print("series2:\n{}\n".format(series2))
          print("E is {}\n".format(series2["E"]))
          

          這段代碼輸出如下:

          series2:
          C 1
          D 2
          E 3
          F 4
          G 5
          A 6
          B 7
          dtype: int64
          E is 3
          

          DataFrame

          下面我們來看一下DataFrame的創建。我們可以通過NumPy的接口來創建一個4x4的矩陣,以此來創建一個DataFrame,像這樣:

          # data_structure.py
          df1=pd.DataFrame(np.arange(16).reshape(4,4))
          print("df1:\n{}\n".format(df1))
          

          這段代碼輸出如下:

          df1:
           0 1 2 3
          0 0 1 2 3
          1 4 5 6 7
          2 8 9 10 11
          3 12 13 14 15
          

          從這個輸出我們可以看到,默認的索引和列名都是[0, N-1]的形式。

          我們可以在創建DataFrame的時候指定列名和索引,像這樣:

          # data_structure.py
          df2=pd.DataFrame(np.arange(16).reshape(4,4),
           columns=["column1", "column2", "column3", "column4"],
           index=["a", "b", "c", "d"])
          print("df2:\n{}\n".format(df2))
          

          這段代碼輸出如下:

          df2:
           column1 column2 column3 column4
          a 0 1 2 3
          b 4 5 6 7
          c 8 9 10 11
          d 12 13 14 15
          

          我們也可以直接指定列數據來創建DataFrame:

          # data_structure.py
          df3=pd.DataFrame({"note" : ["C", "D", "E", "F", "G", "A", "B"],
           "weekday": ["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"]})
          print("df3:\n{}\n".format(df3))
          

          這段代碼輸出如下:

          df3:
           note weekday
          0 C Mon
          1 D Tue
          2 E Wed
          3 F Thu
          4 G Fri
          5 A Sat
          6 B Sun
          

          請注意:

          • DataFrame的不同列可以是不同的數據類型
          • 如果以Series數組來創建DataFrame,每個Series將成為一行,而不是一列

          例如:

          # data_structure.py
          noteSeries=pd.Series(["C", "D", "E", "F", "G", "A", "B"],
           index=[1, 2, 3, 4, 5, 6, 7])
          weekdaySeries=pd.Series(["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"],
           index=[1, 2, 3, 4, 5, 6, 7])
          df4=pd.DataFrame([noteSeries, weekdaySeries])
          print("df4:\n{}\n".format(df4))
          

          df4的輸出如下:

          df4:
           1 2 3 4 5 6 7
          0 C D E F G A B
          1 Mon Tue Wed Thu Fri Sat Sun
          

          我們可以通過下面的形式給DataFrame添加或者刪除列數據:

          # data_structure.py
          df3["No."]=pd.Series([1, 2, 3, 4, 5, 6, 7])
          print("df3:\n{}\n".format(df3))
          del df3["weekday"]
          print("df3:\n{}\n".format(df3))
          

          這段代碼輸出如下:

          df3:
           note weekday No.
          0 C Mon 1
          1 D Tue 2
          2 E Wed 3
          3 F Thu 4
          4 G Fri 5
          5 A Sat 6
          6 B Sun 7
          df3:
           note No.
          0 C 1
          1 D 2
          2 E 3
          3 F 4
          4 G 5
          5 A 6
          6 B 7
          

          Index對象與數據訪問

          pandas的Index對象包含了描述軸的元數據信息。當創建Series或者DataFrame的時候,標簽的數組或者序列會被轉換成Index??梢酝ㄟ^下面的方式獲取到DataFrame的列和行的Index對象:

          # data_structure.py
          print("df3.columns\n{}\n".format(df3.columns))
          print("df3.index\n{}\n".format(df3.index))
          

          這兩行代碼輸出如下:

          df3.columns
          Index(['note', 'No.'], dtype='object')
          df3.index
          RangeIndex(start=0, stop=7, step=1)
          

          請注意:

          • Index并非集合,因此其中可以包含重復的數據
          • Index對象的值是不可以改變,因此可以通過它安全的訪問數據

          DataFrame提供了下面兩個操作符來訪問其中的數據:

          • loc:通過行和列的索引來訪問數據
          • iloc:通過行和列的下標來訪問數據

          例如這樣:

          # data_structure.py
          print("Note C, D is:\n{}\n".format(df3.loc[[0, 1], "note"]))
          print("Note C, D is:\n{}\n".format(df3.iloc[[0, 1], 0]))
          

          第一行代碼訪問了行索引為0和1,列索引為“note”的元素。第二行代碼訪問了行下標為0和1(對于df3來說,行索引和行下標剛好是一樣的,所以這里都是0和1,但它們卻是不同的含義),列下標為0的元素。

          這兩行代碼輸出如下:

          Note C, D is:
          0 C
          1 D
          Name: note, dtype: object
          Note C, D is:
          0 C
          1 D
          Name: note, dtype: object
          

          文件操作

          pandas庫提供了一系列的read_函數來讀取各種格式的文件,它們如下所示:

          • read_csv
          • read_table
          • read_fwf
          • read_clipboard
          • read_excel
          • read_hdf
          • read_html
          • read_json
          • read_msgpack
          • read_pickle
          • read_sas
          • read_sql
          • read_stata
          • read_feather

          讀取Excel文件

          注:要讀取Excel文件,還需要安裝另外一個庫:xlrd

          通過pip可以這樣完成安裝:

          sudo pip3 install xlrd
          

          安裝完之后可以通過pip查看這個庫的信息:

          $ pip3 show xlrd
          Name: xlrd
          Version: 1.1.0
          Summary: Library for developers to extract data from Microsoft Excel (tm) spreadsheet files
          Home-page: http://www.python-excel.org/
          Author: John Machin
          Author-email: sjmachin@lexicon.net
          License: BSD
          Location: /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages
          Requires: 
          

          接下來我們看一個讀取Excel的簡單的例子:

          # file_operation.py
          import pandas as pd
          import numpy as np
          df1=pd.read_excel("data/test.xlsx")
          print("df1:\n{}\n".format(df1))
          

          這個Excel的內容如下:

          df1:
           C Mon
          0 D Tue
          1 E Wed
          2 F Thu
          3 G Fri
          4 A Sat
          5 B Sun
          

          注:本文的代碼和數據文件可以通過文章開頭提到的Github倉庫獲取。

          讀取CSV文件

          下面,我們再來看讀取CSV文件的例子。

          第一個CSV文件內容如下:

          $ cat test1.csv 
          C,Mon
          D,Tue
          E,Wed
          F,Thu
          G,Fri
          A,Sat
          

          讀取的方式也很簡單:

          # file_operation.py
          df2=pd.read_csv("data/test1.csv")
          print("df2:\n{}\n".format(df2))
          

          我們再來看第2個例子,這個文件的內容如下:

          $ cat test2.csv 
          C|Mon
          D|Tue
          E|Wed
          F|Thu
          G|Fri
          A|Sat
          

          嚴格的來說,這并不是一個CSV文件了,因為它的數據并不是通過逗號分隔的。在這種情況下,我們可以通過指定分隔符的方式來讀取這個文件,像這樣:

          # file_operation.py
          df3=pd.read_csv("data/test2.csv", sep="|")
          print("df3:\n{}\n".format(df3))
          

          實際上,read_csv支持非常多的參數用來調整讀取的參數,如下表所示:

          詳細的read_csv函數說明請參見這里:pandas.read_csv(http://pandas.pydata.org/pandas-docs/stable/generated/pandas.read_csv.html?spm=a2c4e.11153940.blogcont596296.22.67e04526nmEaeg&highlight=read_csv#pandas.read_csv)

          處理無效值

          現實世界并非完美,我們讀取到的數據常常會帶有一些無效值。如果沒有處理好這些無效值,將對程序造成很大的干擾。

          對待無效值,主要有兩種處理方法:直接忽略這些無效值;或者將無效值替換成有效值。

          下面我先創建一個包含無效值的數據結構。然后通過pandas.isna函數來確認哪些值是無效的:

          # process_na.py
          import pandas as pd
          import numpy as np
          df=pd.DataFrame([[1.0, np.nan, 3.0, 4.0],
           [5.0, np.nan, np.nan, 8.0],
           [9.0, np.nan, np.nan, 12.0],
           [13.0, np.nan, 15.0, 16.0]])
          print("df:\n{}\n".format(df));
          print("df:\n{}\n".format(pd.isna(df)));****
          

          這段代碼輸出如下:

          df:
           0 1 2 3
          0 1.0 NaN 3.0 4.0
          1 5.0 NaN NaN 8.0
          2 9.0 NaN NaN 12.0
          3 13.0 NaN 15.0 16.0
          df:
           0 1 2 3
          0 False True False False
          1 False True True False
          2 False True True False
          3 False True False False
          

          忽略無效值

          我們可以通過pandas.DataFrame.dropna函數拋棄無效值:

          # process_na.py
          print("df.dropna():\n{}\n".format(df.dropna()));
          

          注:dropna默認不會改變原先的數據結構,而是返回了一個新的數據結構。如果想要直接更改數據本身,可以在調用這個函數的時候傳遞參數 inplace=True。

          對于原先的結構,當無效值全部被拋棄之后,將不再是一個有效的DataFrame,因此這行代碼輸出如下:

          df.dropna():
          Empty DataFrame
          Columns: [0, 1, 2, 3]
          Index: []
          

          我們也可以選擇拋棄整列都是無效值的那一列:

          # process_na.py
          print("df.dropna(axis=1, how='all'):\n{}\n".format(df.dropna(axis=1, how='all')));
          

          注:axis=1表示列的軸。how可以取值'any'或者'all',默認是前者。

          這行代碼輸出如下:

          df.dropna(axis=1, how='all'):
           0 2 3
          0 1.0 3.0 4.0
          1 5.0 NaN 8.0
          2 9.0 NaN 12.0
          3 13.0 15.0 16.0
          

          替換無效值

          我們也可以通過fillna函數將無效值替換成為有效值。像這樣:

          # process_na.py
          print("df.fillna(1):\n{}\n".format(df.fillna(1)));
          

          這段代碼輸出如下:

          df.fillna(1):
           0 1 2 3
          0 1.0 1.0 3.0 4.0
          1 5.0 1.0 1.0 8.0
          2 9.0 1.0 1.0 12.0
          3 13.0 1.0 15.0 16.0
          

          將無效值全部替換成同樣的數據可能意義不大,因此我們可以指定不同的數據來進行填充。為了便于操作,在填充之前,我們可以先通過rename方法修改行和列的名稱:

          # process_na.py
          df.rename(index={0: 'index1', 1: 'index2', 2: 'index3', 3: 'index4'},
           columns={0: 'col1', 1: 'col2', 2: 'col3', 3: 'col4'},
           inplace=True);
          df.fillna(value={'col2': 2}, inplace=True)
          df.fillna(value={'col3': 7}, inplace=True)
          print("df:\n{}\n".format(df));
          

          這段代碼輸出如下:

          df:
           col1 col2 col3 col4
          index1 1.0 2.0 3.0 4.0
          index2 5.0 2.0 7.0 8.0
          index3 9.0 2.0 7.0 12.0
          index4 13.0 2.0 15.0 16.0
          

          處理字符串

          數據中常常牽涉到字符串的處理,接下來我們就看看pandas對于字符串操作。

          Series的str字段包含了一系列的函數用來處理字符串。并且,這些函數會自動處理無效值。

          下面是一些實例,在第一組數據中,我們故意設置了一些包含空格字符串:

          # process_string.py
          import pandas as pd
          s1=pd.Series([' 1', '2 ', ' 3 ', '4', '5']);
          print("s1.str.rstrip():\n{}\n".format(s1.str.lstrip()))
          print("s1.str.strip():\n{}\n".format(s1.str.strip()))
          print("s1.str.isdigit():\n{}\n".format(s1.str.isdigit()))
          

          在這個實例中我們看到了對于字符串strip的處理以及判斷字符串本身是否是數字,這段代碼輸出如下:

          s1.str.rstrip():
          0 1
          1 2 
          2 3 
          3 4
          4 5
          dtype: object
          s1.str.strip():
          0 1
          1 2
          2 3
          3 4
          4 5
          dtype: object
          s1.str.isdigit():
          0 False
          1 False
          2 False
          3 True
          4 True
          dtype: bool
          

          下面是另外一些示例,展示了對于字符串大寫,小寫以及字符串長度的處理:

          # process_string.py
          s2=pd.Series(['Stairway to Heaven', 'Eruption', 'Freebird',
           'Comfortably Numb', 'All Along the Watchtower'])
          print("s2.str.lower():\n{}\n".format(s2.str.lower()))
          print("s2.str.upper():\n{}\n".format(s2.str.upper()))
          print("s2.str.len():\n{}\n".format(s2.str.len()))
          

          該段代碼輸出如下:

          s2.str.lower():
          0 stairway to heaven
          1 eruption
          2 freebird
          3 comfortably numb
          4 all along the watchtower
          dtype: object
          s2.str.upper():
          0 STAIRWAY TO HEAVEN
          1 ERUPTION
          2 FREEBIRD
          3 COMFORTABLY NUMB
          4 ALL ALONG THE WATCHTOWER
          dtype: object
          s2.str.len():
          0 18
          1 8
          2 8
          3 16
          4 24
          dtype: int64
          

          送書了!送書了!送書了!查看置頂圖文,想要的書都是你的!

          本文來自阿里云云棲社區,未經許可禁止轉載。

          更多資訊,盡在云棲科技快訊~

          來科技快訊看新聞鴨~

          快點關注我認識我愛上我啊~~~

          讀:任何原始格式的數據載入DataFrame后,都可以使用類似DataFrame.to_csv()的方法輸出到相應格式的文件或者目標系統里。本文將介紹一些常用的數據輸出目標格式。

          作者:李慶輝

          來源:華章科技

          01 CSV

          DataFrame.to_csv方法可以將DataFrame導出為CSV格式的文件,需要傳入一個CSV文件名。

          df.to_csv('done.csv')
          df.to_csv('data/done.csv') # 可以指定文件目錄路徑
          df.to_csv('done.csv', index=False) # 不要索引

          另外還可以使用sep參數指定分隔符,columns傳入一個序列指定列名,編碼用encoding傳入。如果不需要表頭,可以將header設為False。如果文件較大,可以使用compression進行壓縮:

          # 創建一個包含out.csv的壓縮文件out.zip
          compression_opts=dict(method='zip',
          archive_name='out.csv') 
          df.to_csv('out.zip', index=False,
          compression=compression_opts) 

          02 Excel

          將DataFrame導出為Excel格式也很方便,使用DataFrame.to_excel方法即可。要想把DataFrame對象導出,首先要指定一個文件名,這個文件名必須以.xlsx或.xls為擴展名,生成的文件標簽名也可以用sheet_name指定。

          如果要導出多個DataFrame到一個Excel,可以借助ExcelWriter對象來實現。

          # 導出,可以指定文件路徑
          df.to_excel('path_to_file.xlsx')
          # 指定sheet名,不要索引
          df.to_excel('path_to_file.xlsx', sheet_name='Sheet1', index=False)
          # 指定索引名,不合并單元格
          df.to_excel('path_to_file.xlsx', index_label='label', merge_cells=False)

          多個數據的導出如下:

          # 將多個df分不同sheet導入一個Excel文件中
          with pd.ExcelWriter('path_to_file.xlsx') as writer:
          df1.to_excel(writer, sheet_name='Sheet1')
          df2.to_excel(writer, sheet_name='Sheet2')

          使用指定的Excel導出引擎如下:

          # 指定操作引擎
          df.to_excel('path_to_file.xlsx', sheet_name='Sheet1', engine='xlsxwriter')
          # 在'engine'參數中設置ExcelWriter使用的引擎
          writer=pd.ExcelWriter('path_to_file.xlsx', engine='xlsxwriter')
          df.to_excel(writer)
          writer.save()
          
          # 設置系統引擎
          from pandas import options # noqa: E402
          options.io.excel.xlsx.writer='xlsxwriter'
          df.to_excel('path_to_file.xlsx', sheet_name='Sheet1')

          03 HTML

          DataFrame.to_html會將DataFrame中的數據組裝在HTML代碼的table標簽中,輸入一個字符串,這部分HTML代碼可以放在網頁中進行展示,也可以作為郵件正文。

          print(df.to_html())
          print(df.to_html(columns=[0])) # 輸出指定列
          print(df.to_html(bold_rows=False)) # 表頭不加粗
          # 表格指定樣式,支持多個
          print(df.to_html(classes=['class1', 'class2']))

          04 數據庫(SQL)

          將DataFrame中的數據保存到數據庫的對應表中:

          # 需要安裝SQLAlchemy庫
          from sqlalchemy import create_engine
          # 創建數據庫對象,SQLite內存模式
          engine=create_engine('sqlite:///:memory:')
          # 取出表名為data的表數據
          with engine.connect() as conn, conn.begin():
          data=pd.read_sql_table('data', conn)
          
          # data
          # 將數據寫入
          data.to_sql('data', engine)
          # 大量寫入
          data.to_sql('data_chunked', engine, chunksize=1000)
          # 使用SQL查詢
          pd.read_sql_query('SELECT * FROM data', engine)

          05 Markdown

          Markdown是一種常用的技術文檔編寫語言,Pandas支持輸出Markdown格式的字符串,如下:

          print(cdf.to_markdown())
          
          '''
          | | x | y | z |
          |:---|----:|----:|----:|
          | a | 1 | 2 | 3 |
          | b | 4 | 5 | 6 |
          | c | 7 | 8 | 9 |
          '''

          小結

          本文介紹了如何將DataFrame對象數據進行輸出,數據經輸出、持久化后會成為固定的數據資產,供我們進行歸檔和分析。

          關于作者:李慶輝,數據產品專家,某電商公司數據產品團隊負責人,擅長通過數據治理、數據分析、數據化運營提升公司的數據應用水平。精通Python數據科學及Python Web開發,曾獨立開發公司的自動化數據分析平臺,參與教育部“1+X”數據分析(Python)職業技能等級標準評審。中國人工智能學會會員,企業數字化、數據產品和數據分析講師,在個人網站“蓋若”上編寫的技術和產品教程廣受歡迎。

          本書摘編自《深入淺出Pandas:利用Python進行數據處理與分析》,機械工業出版社華章公司2021年出版。轉載請與我們取得授權。

          延伸閱讀《深入淺出Pandas》

          推薦語:這是一本全面覆蓋了Pandas使用者的普遍需求和痛點的著作,基于實用、易學的原則,從功能、使用、原理等多個維度對Pandas做了全方位的詳細講解,既是初學者系統學習Pandas難得的入門書,又是有經驗的Python工程師案頭必不可少的查詢手冊?!独肞ython進行數據分析》學習伴侶,用好Python必備。


          主站蜘蛛池模板: 亚洲第一区视频在线观看| 成人精品一区二区三区不卡免费看| 性色AV一区二区三区| 一夲道无码人妻精品一区二区| 日本精品一区二区三区视频 | 国产大秀视频在线一区二区| 日韩免费视频一区二区| 亚洲色大成网站www永久一区| 亚洲国产精品成人一区| 亚洲性日韩精品国产一区二区| 伊人色综合网一区二区三区 | 一区二区三区无码高清| 美女AV一区二区三区| 久久se精品一区精品二区国产| 日本亚洲国产一区二区三区| 久久久精品人妻一区二区三区 | 在线观看国产区亚洲一区成人| 亚洲国产精品第一区二区三区| 亚洲韩国精品无码一区二区三区| 亚洲一区二区三区无码中文字幕| 日产亚洲一区二区三区| 理论亚洲区美一区二区三区| 免费一区二区无码视频在线播放| 亚洲欧洲∨国产一区二区三区| 3d动漫精品啪啪一区二区免费 | 亚洲乱色熟女一区二区三区丝袜| 日韩精品一区二区三区老鸭窝 | 激情综合一区二区三区| 中文字幕在线不卡一区二区| 无码人妻一区二区三区在线水卜樱| 亚洲日韩国产精品第一页一区| 亚洲午夜精品一区二区公牛电影院 | 日本高清无卡码一区二区久久| 亚洲一区二区三区日本久久九| 精品国产一区二区二三区在线观看| 国产精品区一区二区三在线播放 | 在线一区二区观看| 精品国产鲁一鲁一区二区| 国产伦精品一区二区三区| 国产精品久久久久一区二区| 日韩精品一区二区三区老鸭窝|