PaddlePaddle升級解讀|十餘行程式碼完成遷移學習 PaddleHub實戰篇

pythontab發表於2019-05-06

遷移學習 (Transfer Learning) 是屬於深度學習的一個子研究領域,該研究領域的目標在於利用資料、任務、或模型之間的相似性,將在舊領域學習過的知識,遷移應用於新領域中。遷移學習吸引了很多研究者投身其中,因為它能夠很好的解決深度學習中的以下幾個問題:

  一些研究領域只有少量標註資料,且資料標註成本較高,不足以訓練一個足夠魯棒的神經網路

  大規模神經網路的訓練依賴於大量的計算資源,這對於一般使用者而言難以實現

  應對於普適化需求的模型,在特定應用上表現不盡如人意

  為了讓開發者更便捷地應用遷移學習,百度 PaddlePaddle 開源了預訓練模型管理工具 PaddleHub。開發者用使用僅僅十餘行的程式碼,就能完成遷移學習。本文將全面介紹 PaddleHub 及其應用方法。

  專案地址:https://github.com/PaddlePaddle/PaddleHub

PaddleHub 介紹

  PaddleHub 是基於 PaddlePaddle 開發的預訓練模型管理工具,可以藉助預訓練模型更便捷地開展遷移學習工作,旨在讓 PaddlePaddle 生態下的開發者更便捷體驗到大規模預訓練模型的價值。

  PaddleHub 目前的預訓練模型覆蓋了影像分類、目標檢測、詞法分析、Transformer、情感分析五大類別。未來會持續開放更多型別的深度學習模型,如語言模型、影片分類、影像生成等預訓練模型。

C:\Users\lingmiao.yan\Desktop\微信圖片_20190506161248.jpg

圖 1 PaddleHub 功能全景

  PaddleHub 主要包括兩個功能:命令列工具和 Fine-tune API。

命令列工具

  PaddleHub 借鑑了 Anaconda 和 PIP 等軟體包管理的理念,開發了命令列工具,可以方便快捷的完成模型的搜尋、下載、安裝、預測等功能,對應的關鍵的命令分別是 search,download,install,run 等。我們以 run 命令為例,介紹如何透過命令列工具進行預測。

  Run 命令用於執行 Module 的預測,這裡分別舉一個 NLP 和 CV 的例子。

  對於 NLP 任務:輸入資料透過--input_text 指定。以百度 LAC 模型(中文詞法分析)為例,可以透過以下命令實現單行文字分析。

  對於 CV 任務:輸入資料透過--input_path 指定。以 SSD 模型(單階段目標檢測)為例子,可以透過以下命令實現單張圖片的預測。

  更多的命令用法,請讀者參考文首的 Github 專案連結。

Fine-tune API

  PaddleHub 提供了基於 PaddlePaddle 實現的 Fine-tune API, 重點針對大規模預訓練模型的 Fine-tune 任務做了高階的抽象,讓預訓練模型能更好服務於使用者特定場景的應用。透過大規模預訓練模型結合 Fine-tune,可以在更短的時間完成模型的收斂,同時具備更好的泛化能力。

C:\Users\lingmiao.yan\Desktop\微信圖片_20190506161733_副本.jpg

圖 2 PaddleHub Fine-tune API 全景

  Fine-tune :對一個 Task 進行 Fine-tune,並且定期進行驗證集評估。在 Fine-tune 的過程中,介面會定期的儲存 checkpoint(模型和執行資料),當執行被中斷時,透過 RunConfig 指定上一次執行的 checkpoint 目錄,可以直接從上一次執行的最後一次評估中恢復狀態繼續執行。

  遷移任務 Task:在 PaddleHub 中,Task 代表了一個 Fine-tune 的任務。任務中包含了執行該任務相關的 program 以及和任務相關的一些度量指標(如分類準確率 accuracy、precision、 recall、 F1-score 等)、模型損失等。

  執行配置 RunConfig:在 PaddleHub 中,RunConfig 代表了在對 Task 進行 Fine-tune 時的執行配置。包括執行的 epoch 次數、batch 的大小、是否使用 GPU 訓練等。

  最佳化策略 Strategy:在 PaddleHub 中,Strategy 類封裝了一系列適用於遷移學習的 Fine-tune 策略。Strategy 包含了對預訓練引數使用什麼學習率變化策略,使用哪種型別的最佳化器,使用什麼型別的正則化等。

  預訓練模型 Module :Module 代表了一個可執行的模型。這裡的可執行指的是,Module 可以直接透過命令列 hub run ${MODULE_NAME} 執行預測,或者透過 context 介面獲取上下文後進行 Fine-tune。在生成一個 Module 時,支援透過名稱、url 或者路徑建立 Module。

  資料預處理 Reader :PaddleHub 的資料預處理模組 Reader 對常見的 NLP 和 CV 任務進行了抽象。

  資料集 Dataset:PaddleHub 提供多種 NLP 任務和 CV 任務的資料集,可供使用者載,使用者也可以在自定義資料集上完成 Fine-tune。

  基於以上介紹的 PaddleHub 兩大功能,使用者可以實現:無需編寫程式碼,一鍵使用預訓練模型進行預測;透過 hub download 命令,快速地獲取 PaddlePaddle 生態下的所有預訓練模型;藉助 PaddleHub Fine-tune API,使用少量程式碼完成遷移學習。

  以下將從實戰角度,教你如何使用 PaddleHub 進行影像分類遷移。

PaddleHub 實戰

  1. 安裝

  PaddleHub 是基於 PaddlePaddle 的預訓練模型管理框架,使用 PaddleHub 前需要先安裝 PaddlePaddle,如果你本地已經安裝了 CPU 或者 GPU 版本的 PaddlePaddle,那麼可以跳過以下安裝步驟。

  推薦使用大於 1.4.0 版本的 PaddlePaddle。

  透過以下命令來安裝 PaddleHub。

  2. 選擇合適的模型

  首先匯入必要的 python 包

  接下來我們要在 PaddleHub 中選擇合適的預訓練模型來 Fine-tune,由於貓狗分類是一個影像分類任務,因此我們使用經典的 ResNet-50 作為預訓練模型。PaddleHub 提供了豐富的影像分類預訓練模型,包括了最新的神經網路架構搜尋類的 PNASNet,我們推薦你嘗試不同的預訓練模型來獲得更好的效能。

  3. 資料準備

  接著需要載入圖片資料集。為了快速體驗,我們直接載入 PaddleHub 提供的貓狗分類資料集,如果想要使用自定義的資料進行體驗,請檢視自定義資料。

  4. 自定義資料

  本節說明如何組裝自定義的資料,如果想使用貓狗資料集進行體驗,可以直接跳過本節。使用自定義資料時,我們需要自己切分資料集,將資料集且分為訓練集、驗證集和測試集。

  同時使用三個文字檔案來記錄對應的圖片路徑和標籤,此外還需要一個標籤檔案用於記錄標籤的名稱。

  訓練/驗證/測試集的資料列表檔案的格式如下

  標籤列表檔案的格式如下

  使用如下的方式進行載入資料,生成資料集物件

  注意事項:

  1、num_labels 要填寫實際的分類數量,如貓狗分類該欄位值為 2,food101 該欄位值為 101,下文以 2 為例子

  2、base_path 為資料集實際路徑,需要填寫全路徑,下文以/test/data 為例子

  3、訓練/驗證/測試集的資料列表檔案中的圖片路徑需要相對於 base_path 的相對路徑,例如圖片的實際位置為/test/data/dog/dog1.jpg,base_path 為/test/data,則檔案中填寫的路徑應該為 dog/dog1.jpg

5. 生成 Reader

  接著生成一個影像分類的 reader,reader 負責將 dataset 的資料進行預處理,接著以特定格式組織並輸入給模型進行訓練。

  當我們生成一個影像分類的 reader 時,需要指定輸入圖片的大小

6. 組建 Fine-tune Task

  有了合適的預訓練模型和準備要遷移的資料集後,我們開始組建一個 Task。

  由於貓狗分類是一個二分類的任務,而我們下載的 cv_classifer_module 是在 ImageNet 資料集上訓練的千分類模型,所以我們需要對模型進行簡單的微調,把模型改造為一個二分類模型:

  1、獲取 cv_classifer_module 的上下文環境,包括輸入和輸出的變數,以及 Paddle Program;

  2、從輸出變數中找到特徵圖提取層 feature_map;

  3、在 feature_map 後面接入一個全連線層,生成 Task;

  7. 選擇執行時配置

  在進行 Fine-tune 前,我們可以設定一些執行時的配置,例如如下程式碼中的配置,表示:

  use_cuda:設定為 False 表示使用 CPU 進行訓練。如果本機支援 GPU,且安裝的是 GPU 版本的 PaddlePaddle,我們建議你將這個選項設定為 True;

  epoch:要求 Fine-tune 的任務只遍歷 1 次訓練集;

  batch_size:每次訓練的時候,給模型輸入的每批資料大小為 32,模型訓練時能夠並行處理批資料,因此 batch_size 越大,訓練的效率越高,但是同時帶來了記憶體的負荷,過大的 batch_size 可能導致記憶體不足而無法訓練,因此選擇一個合適的 batch_size 是很重要的一步;

  log_interval:每隔 10 step 列印一次訓練日誌;

  eval_interval:每隔 50 step 在驗證集上進行一次效能評估;

  checkpoint_dir:將訓練的引數和資料儲存到 cv_Fine-tune_turtorial_demo 目錄中;

  strategy:使用 DefaultFine-tuneStrategy 策略進行 Fine-tune;

  更多執行配置,請檢視文首的 Github 專案連結。

8. 開始 Fine-tune

  我們選擇 Fine-tune_and_eval 介面來進行模型訓練,這個介面在 Fine-tune 的過程中,會週期性的進行模型效果的評估,以便我們瞭解整個訓練過程的效能變化。

9. 檢視訓練過程的效果

  訓練過程中的效能資料會被記錄到本地,我們可以透過 visualdl 來視覺化這些資料。

  我們在 shell 中輸入以下命令來啟動 visualdl,其中${HOST_IP} 為本機 IP,需要使用者自行指定

  啟動服務後,我們使用瀏覽器訪問${HOST_IP}:8989,可以看到訓練以及預測的 loss 曲線和 accuracy 曲線,如下圖所示。

C:\Users\lingmiao.yan\Desktop\微信圖片_20190506164323.jpg

10. 使用模型進行預測

  當 Fine-tune 完成後,我們使用模型來進行預測,整個預測流程大致可以分為以下幾步:

  1、構建網路

  2、生成預測資料的 Reader

  3、切換到預測的 Program

  4、載入預訓練好的引數

  5、執行 Program 進行預測

  透過以下命令來獲取測試的圖片(適用於貓狗分類的資料集)

  注意:其他資料集所用的測試圖片請自行準備。

  完整預測程式碼如下:


相關文章