資料預處理速度高倍提升,3行python程式碼簡單搞定!
Python 是機器學習領域內的首選程式語言,它易於使用,也有很多出色的庫來幫助你更快處理資料。但當我們面臨大量資料時,一些問題就會顯現……
目前,大資料(Big Data)這個術語通常用於表示包含數十萬資料點的資料集。在這樣的尺度上,工作程式中加入任何額外的計算都需要時刻注意保持效率。在設計機器學習系統時,資料預處理非常重要——在這裡,我們必須對所有資料點使用某種操作。
在預設情況下,Python 程式是單個程式,使用單 CPU 核心執行。而大多數當代機器學習硬體都至少搭載了雙核處理器。這意味著如果沒有進行最佳化,在資料預處理的時候會出現「一核有難九核圍觀」的情況——超過 50% 的算力都會被浪費。在當前四核處理器(英特爾酷睿 i5)和 6 核處理器(英特爾酷睿 i7)大行其道的時候,這種情況會變得更加明顯。
幸運的是,Python 庫中內建了一些隱藏的特性,可以讓我們充分利用所有 CPU 核心的能力。透過使用 Python 的 concurrent.futures 模組,我們只需要 3 行程式碼就可以讓一個普通的程式轉換成適用於多核處理器並行處理的程式。
標準方法
讓我們舉一個簡單的例子,在單個資料夾中有一個圖片資料集,其中有數萬張圖片。在這裡,我們決定使用 1000 張。我們希望在所有圖片被傳遞到深度神經網路之前將其調整為 600×600 畫素解析度的形式。以下是你經常會在 GitHub 上看到的標準 Python 程式碼:
import globimport osimport cv2### Loop through all jpg files in the current folder### Resize each one to size 600x600for image_filename in glob.glob("*.jpg"):### Read in the image dataimg = cv2.imread(image_filename)### Resize the imageimg = cv2.resize(img, (600, 600))
上面的程式遵循你在處理資料指令碼時經常看到的簡單模式:
-
首先從需要處理內容的檔案(或其他資料)列表開始。
-
使用 for 迴圈逐個處理每個資料,然後在每個迴圈迭代上執行預處理。
讓我們在一個包含 1000 個 jpeg 檔案的資料夾上測試這個程式,看看執行它需要多久:
time python standard_res_conversion.py
在我的酷睿 i7-8700k 6 核 CPU 上,執行時間為 7.9864 秒!在這樣的高階 CPU 上,這種速度看起來是難以讓人接受的,看看我們能做點什麼。
更快的方法
為了便於理解並行化的提升,假設我們需要執行相同的任務,比如將 1000 個釘子釘入木頭,假如釘入一個需要一秒,一個人就需要 1000 秒來完成任務。四個人組隊就只需要 250 秒。
在我們這個包含 1000 個影像的例子中,可以讓 Python 做類似的工作:
● 將 jpeg 檔案列表分成 4 個小組;
● 執行 Python 直譯器中的 4 個獨立例項;
● 讓 Python 的每個例項處理 4 個資料小組中的一個;
● 結合四個處理過程得到的結果得出最終結果列表。
這一方法的重點在於,Python 幫我們處理了所有棘手的工作。我們只需告訴它我們想要執行哪個函式,要用多少 Python 例項,剩下的就交給它了!只需改變三行程式碼。例項:
import globimport osimport cv2import concurrent.futuresdef load_and_resize(image_filename):### Read in the image dataimg = cv2.imread(image_filename)### Resize the imageimg = cv2.resize(img, (600, 600))### Create a pool of processes. By default, one is created for each CPU in your machine.with concurrent.futures.ProcessPoolExecutor() as executor:### Get a list of files to processimage_files = glob.glob("*.jpg")### Process the list of files, but split the work across the process pool to use all CPUs### Loop through all jpg files in the current folder### Resize each one to size 600x600executor.map(load_and_resize, image_files)
從以上程式碼中摘出一行:
with concurrent.futures.ProcessPoolExecutor() as executor:
你的 CPU 核越多,啟動的 Python 程式越多,我的 CPU 有 6 個核。實際處理程式碼如下:
executor.map(load_and_resize, image_files)
「executor.map()」將你想要執行的函式和列表作為輸入,列表中的每個元素都是我們函式的單個輸入。由於我們有 6 個核,我們將同時處理該列表中的 6 個專案!
如果再次用以下程式碼執行我們的程式:
time python fast_res_conversion.py
我們可以將執行時間降到 1.14265 秒,速度提升了近 6 倍!
注意:在生成更多 Python 程式及在它們之間整理資料時會有一些開銷,所以速度提升並不總是這麼明顯。但是總的來說,速度提升還是非常可觀的。
它總是那麼快嗎?
如果你有一個資料列表要處理,而且在每個資料點上執行相似的運算,那麼使用 Python 並行池是一個很好的選擇。但有時這不是最佳解決方案。並行池處理的資料不會在任何可預測的順序中進行處理。如果你對處理後的結果有特殊順序要求,那麼這個方法可能不適合你。
你處理的資料也必須是 Python 可以「炮製」的型別。所幸這些指定類別都很常見。以下來自 Python 官方檔案:
● None, True, 及 False
● 整數、浮點數、複數
● 字串、位元組、位元組陣列
● 只包含可挑選物件的元組、列表、集合和字典
● 在模組頂層定義的函式(使用 def ,而不是 lambda )
● 在模組頂層定義的內建函式
● 在模組頂層定義的類
● 這種類的例項,其 dict 或呼叫getstate() 的結果是可選擇的(參見「Pickling Class Instances」一節)。
如果你對程式設計感興趣,想學習Python,這裡推薦一下我的:Python學習交流q-u-n-【 784758214 】內有安裝包和學習影片資料,零基礎,進階,實戰免費的線上直播免費課程,大牛線上解答問題。希望可以幫助你快速瞭解Python、學習python
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69901074/viewspace-2284611/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 如何讓 python 處理速度翻倍?內含程式碼Python
- 100天搞定機器學習|Day1資料預處理機器學習
- 資料預處理
- 資料預處理-資料清理
- 資料分析--資料預處理
- 資料預處理 demo
- 利用Python Pandas進行資料預處理-資料清洗Python
- Python資料分析與挖掘實戰(資料預處理)Python
- Python資料處理(二):處理 Excel 資料PythonExcel
- 資料預處理-資料歸約
- 資料預處理–資料降維
- 資料清洗與預處理:使用 Python Pandas 庫Python
- 基於python的大資料分析-資料處理(程式碼實戰)Python大資料
- nlp 中文資料預處理
- 機器學習一:資料預處理機器學習
- 資料預處理規則
- 資料預處理的形式
- python 處理資料Python
- Python(簡單圖形和檔案處理)程式設計Python程式設計
- java 如何簡單快速處理 xml 中的資料JavaXML
- 資料預處理方法彙總
- 資料預處理和特徵工程特徵工程
- 機器學習筆記---資料預處理機器學習筆記
- TANet資料預處理流程
- 深度學習--資料預處理深度學習
- 資料處理等待效果例項程式碼
- EXCEL的重生!處理百萬行資料竟如此簡單Excel
- java 如何簡單快速處理 json 中的資料JavaJSON
- Python資料預處理:Dask和Numba並行化加速!Python並行
- 資料預處理之獨熱編碼(One-Hot)
- 資料預處理-資料整合與資料變換
- 機器學習:探索資料和資料預處理機器學習
- UCI資料集詳解及其資料處理(附148個資料集及處理程式碼)
- 資料預處理(資料清洗)的一般方法及python實現Python
- 第五篇:資料預處理(二) - 異常值處理
- 第四篇:資料預處理(一) - 缺失值處理
- 資料預處理之 pandas 讀表
- 人工智慧 (01) 資料預處理人工智慧