Android Things 專題6 完整的栗子:運用TensorFlow解析影像

慢慢的燃燒發表於2017-03-27

原址

前面絮叨了這麼多,好像還沒有一個總體的概念,我們如何寫一個完整的程式碼呢?

現在深度學習很火,那我們就在Android Things中,利用攝像頭抓拍圖片,讓 TensorFlow 去識別影像,最後用揚聲器告訴我們結果。

是不是很酷?說基本的功能就說了這麼長一串,那壘程式碼得壘多久啊?

專案結構

我們就從 Android Studio 的環始境開始說起吧。

啟動 Android Studio 之後,務必把 SDK Tools 的版本升級到 24 及以上。然後再把 SDK 升級到 Android 7.0 及以上。讓 Android Studio 自己完成相關元件的更新,匯入專案,專案的結構如下: 
這裡寫圖片描述 
程式碼中的 imageclassifier 是用於跟 TensorFlow 做互動的,還有攝頭,圖片處理的相關 handler。

我們再來看看外部的引用庫: 
這裡寫圖片描述

包括了 Android Things 和 TensorFlow 的相關庫,當然,Android 的 API 的版本是24。gradle 的依賴和 Manifest 中的 filer 是和之前搭建開發環境的講解一致的。 
引用的 TensorFlow 的庫是 aar 打包的 Tensorflow-Android-Inference-alpha-debug.aar,這就意味著,我們不需要 NDK 環境就能夠編譯整個專案了。

主要是留意 dependencies 這一項,包括了 TensorFlow 的庫和 Android thing 的庫: 
這裡寫圖片描述

再申請了攝頭相關的許可權。補充一下,Android Things 是不支援動態許可權的申請的。 
這裡寫圖片描述

硬體連線

接下來便是硬體如何連線了。

這裡寫圖片描述

硬體清單如下: 
Android Things 相容的開發板,比如 Raspberry Pi 3 
Android Things 相容的攝像頭,比如 Raspberry Pi 3 攝頭模組 
元器件: 
1 個按鈕,見面包板 
2 個電阻,這塊兒必須要說明一下:由於圖片是接的 5V 的電壓,一般來說 GPIO 和 led 的承壓能力是 3V,有些 GPIO 是相容 5V 的,所以中間需要串聯 100~200 歐的電阻。當然,為了保險,建議用 3.3V 的電壓。 
1 個LED燈 
1 個麵包板 
杜邦線若干 
可選:揚聲器或者耳機 
可選:HDMI輸出

連完了硬體,我們這時候就要理解操作流程了。

操作流程

按照前面講解的內容,用 Andorid Studio,連線 ADB,配置好開發板的 Wi-Fi,然後把應用載入到開發板上。

操作流程如下: 
重啟裝置,執行程式,直到 LED 燈開始閃爍; 
把鏡頭對準貓啊,狗啊,或者一些傢俱; 
按下開關,開始拍攝圖片; 
在 Raspberry Pi 3 中,一般在 1s 之內,可以完成圖片抓拍,經 Tensorflow 處理,然後再通過 TTS 放出聲音。在執行的過程中 LED 燈是熄滅的; 
Logcat 中會列印出最終的結果,如果是有顯示裝置連線的話,圖片和結果都會顯示出來; 
如果有揚聲器或者是耳機的話,會把結果語音播報出來。

由於程式碼的結構特別簡單,注意一下幾段關健的操作即可。想必圖形、攝頭的操作在Android 的程式設計中大家都會了,所以不做講解了。

程式碼流程

主要是看 LED 的初始化操作: 
這裡寫圖片描述

有必要說一下,ImageClassifierActivity.Java 是應用唯一的 Activity 的入口。在 Manifest 中已經有定義,它初始化了 LED, Camera, TensorfFlow 等元件。其中,我們用到的 Button 是 BCM32 這個管腳,用到的 LED 是 BCM6 管腳,相關的初始化在這個 Activity 中已經完成。 
這裡寫圖片描述

這部分程式碼是捕捉按鍵按下的程式碼。當按下按鍵時,攝頭開始捕捉資料。

這裡寫圖片描述 
把攝像頭拍攝的資料轉成 Bitmap 檔案之後,我們會呼叫 TensorFlow 來處理影像。

這裡寫圖片描述 
這個函式呼叫了 TensorFlow 進行處理,最後把結果輸出到 logcat 中。如果程式碼中呼叫了 tts 引擎,那麼則把結果轉成語音讀出來。看來,最重要的就是 TensorFlowClassifie 類的 recognizeImage() 這個介面了。我們繼續往下看。 
這裡寫圖片描述

這是最後的一步,呼叫 TensorFlow 進行影像識別: 
把 RGB 影像轉成 TensorFlow 能夠識別的資料; 
把資料拷到 TensorFlow 中; 
識別出影像,給出結果。

呼叫 TensorFlow 的過程還是挺好玩的,也挺方便。那麼,為啥 TensorFlow 一下子就能夠識別出是什麼圖片呢?Tensorflow 的官網給出的解答: 
www.tensorflow.org/tutorials/image_recognition

有一點需要提示,TensorFlow 的影像識別分類可以用網路提交到伺服器識別,也可以離線的資料識別。可以先把 200M 左右的識別資料放在本地,然後提交後識別。現在大概能分出 1000 個類別的影像,哪 1000 個類別呢?專案程式碼中已經包含了哦。

是不是運用 TensorFlow 來處理物聯網的資料會特別簡單,不光是 TensorFlow, Firebase 也可以用到 Android Things 中來。這功能,強大的沒話說了!

今天提到的這個專案,來源於 Google 在 GitHub 上維護的專案,專案的地址是 
github.com/androidthings/sample-tensorflow-imageclassifier

當然,GitHub 上還有很多 Android Things 的程式碼可以參考。

是不是迫不急待的自己寫一個應用呢?實際上,這個專案稍加改動便能有新的玩法。例如加上一個紅外感應器,一旦有生物在附近就馬上拍圖片,並且識別。

大開你的腦洞吧

後記

這一篇文章是這個專題的最後一篇了。寫完整個專題,發現 Android Things 帶給開發者太多太多的便利,如何燒寫檔案?如何運用 SDK?甚至如何用 Google 的其它服務做物聯網相關的資料處理?都有太多太多的現成的方案供我們選擇,感嘆使用 Android Things 進行物聯網應用開發實在太方便了!

您如果有任何涉及到 Android Things 方面的想法,都歡迎大家在下方留言,我們會把好的建議轉交給 Android Things 的產品部門。也許在某一天,你的建議就是 Andorid Things 的一部分。

相關文章