FastASR——PaddleSpeech的C++實現

chenkui164發表於2022-07-11

FastASR

基於PaddleSpeech所使用的conformer模型,使用C++的高效實現模型推理,在樹莓派4B等ARM平臺執行也可流暢執行。專案地址為:https://github.com/chenkui164/FastASR

專案簡介

本專案僅實現了PaddleSpeech r1.01版本中conformer_wenetspeech-zh-16k預訓練模型。
這個預訓練模型採用了當下最先進的conformer模型,使用10000+小時的wenetspeech資料集訓練得到。
經過測試它識別效果很好,可以媲美許多商用的ASR軟體。

PaddleSpeech是基於python實現的,本身的效能已經很不錯了,即使在沒有GPU的個人電腦上執行,
也能滿足實時性的要求(如:時長為10s的語音,推理時間小於10s,即可滿足實時性)。

但是要把PaddleSpeech部署在ARM平臺,會遇到兩個方面的困難。

  • 不容易安裝,需要自己編譯一些元件。
  • 執行效率很慢,無法滿足實時性的要求。

因此就有這個專案,它由純C++編寫,僅實現了模型的推理過程。

  • 語言優勢: 由於C++和Python不同,是編譯型語言,編譯器會根據編譯選項針對不同平臺的CPU進行優化,更適合在不同CPU平臺上面部署,充分利用CPU的計算資源。
  • 獨立: 實現不依賴於現有的深度學習框架如pytorch、paddle、tensorflow等。
  • 依賴少: 專案僅使用了兩個第三方庫libfftw3和libopenblas,並無其他依賴,所以在各個平臺的可移植行很好,通用性很強。
  • 效率高:演算法中大量使用指標,減少原有演算法中reshape和permute的操作,減少不必要的資料拷貝,從而提升演算法效能。

快速上手

安裝依賴

安裝依賴庫libfftw3

sudo apt-get install libfftw3-dev libfftw3-single3

安裝依賴庫libopenblas

sudo apt-get install libopenblas-dev

編譯原始碼

下載最新版的原始碼

git clone https://github.com/chenkui164/FastASR.git

編譯最新版的原始碼

cd FastASR/
make

下載預訓練模型

從PaddleSpeech官網下載預訓練模型,如果之前已經在執行過PaddleSpeech,
則可以不用下載,它已經在目錄~/.paddlespeech/models/conformer_wenetspeech-zh-16k中。

wget -c https://paddlespeech.bj.bcebos.com/s2t/wenetspeech/asr1_conformer_wenetspeech_ckpt_0.1.1.model.tar.gz

將壓縮包解壓wenetspeech目錄下

mkdir wenetspeech
tar -xzvf asr1_conformer_wenetspeech_ckpt_0.1.1.model.tar.gz -C wenetspeech

將用於Python的模型轉換為C++的,這樣更方便通過記憶體對映的方式直接讀取引數,加快模型讀取速度。

./convert.py wenetspeech/exp/conformer/checkpoints/wenetspeech.pdparams

檢視轉換後的引數檔案wenet_params.bin的md5碼,md5碼為9cfcf11ee70cb9423528b1f66a87eafd,表示轉換正確。

md5sum -b wenet_params.bin

同時我也把轉換好的wenet_params.bin上傳至github,可以直接下載,可能會有些慢。

wget -c  https://github.com/chenkui164/FastASR/releases/download/V0.01/wenet_params.bin

如何使用

下載用於測試的wav檔案

wget -c https://paddlespeech.bj.bcebos.com/PaddleAudio/zh.wav 

執行程式

./fastasr zh.wav

程式輸出

Audio time is 4.996812 s.
Model initialization takes 0.163184s
result: "我認為跑步最重要的就是給我帶來了身體健康"
Model inference takes 0.462369s.

樹莓派4B上優化部署

由於深度學習推理過程,屬於計算密集型演算法,所以CPU的指令集對程式碼的執行效率會有重要影響。
從純數值計算角度來看,64bit的指令及要比32bit的指令集執行效率要提升1倍。
經過測試同樣的演算法在64bit系統上,確實是要比32bit系統上,執行效率高很多。

為樹莓派升級64位系統raspios

樹莓派官網下載最新的raspios 64位系統,
我下載的是沒有桌面的精簡版raspios_lite_arm64
當然也可以下載有桌面的版本raspios_arm64
兩者沒有太大差別,全憑個人喜好。

下載完成映象,然後燒寫SD卡,保證系統新做的系統能正常啟動即可。

重新編譯依賴庫

儘管兩個依賴庫fftw3和openblas都是可以通過sudo apt install直接安裝的,
但是軟體源上的版本是通用版本,是相容樹莓派3B等老版本的型號,
並沒有針對樹莓派4B的ARM CORTEX A72進行優化,所以執行效率並不高。
因此我們需要針對樹莓派4B重新編譯,讓其發揮最大效率。


注意:以下編譯安裝步驟都是在樹莓派上完成,不使用交叉編譯!!!

安裝fftw3

下載原始碼

wget -c http://www.fftw.org/fftw-3.3.10.tar.gz

解壓

tar -xzvf fftw-3.3.10.tar.gz 
cd fftw-3.3.10/

配置工程,根據CPU選擇適當的編譯選項

./configure --enable-shared --enable-float --prefix=/usr

編譯和安裝

make -j4
sudo make install

安裝OpenBLAS

下載原始碼

wget -c https://github.com/xianyi/OpenBLAS/releases/download/v0.3.20/OpenBLAS-0.3.20.tar.gz

解壓

tar -xzvf OpenBLAS-0.3.20.tar.gz  
cd OpenBLAS-0.3.20

編譯和安裝

make -j4
sudo make PREFIX=/usr install

編譯和測試

編譯和下載預訓練模型的過程,請參考上文的 快速上手章節。

執行程式

./fastasr zh.wav

結果

Audio time is 4.996812 s.
Model initialization takes 10.288784s
result: "我認為跑步最重要的就是給我帶來了身體健康"
Model inference takes 4.900788s.

當第一次執行時,發現模型初始化時間就用了10.2s,
顯然不太合理,這是因為預訓練模型是在SD卡中,一個450M大小的檔案從SD卡讀到記憶體中,主要受限於SD卡的讀取速度,所以比較慢。
得利於linux的快取機制,第二次執行時,模型已經在記憶體中,不用在從SD卡讀取了,所以只有重啟後第一次會比較慢。

第二次執行結果

Audio time is 4.996812 s.
Model initialization takes 0.797091s
result: "我認為跑步最重要的就是給我帶來了身體健康"
Model inference takes 4.916471s.

從結果中可以看出,當音訊檔案為4.99s時,推理時間為4.91秒,推理時間小於音訊時間,剛剛好能滿足實時性的需求。

相關文章