前不久Iphone X釋出,革命性的取消了TouchID(指紋識別),而新增了更酷的 FaceID(人臉識別) 模組,FaceID 不簡單的運用在解鎖上,還可以在支付,表情等場景中應用,給開發者帶來更酷更豐富的應用,Iphone X 在多個硬體感測器的加持下,可以採集3萬個點來感知使用者的面部特徵。
我們知道人臉識別在這幾年應用相當廣泛,人臉考勤,人臉社交,人臉支付,哪裡都有這黑科技的影響,特別這幾年機器學習流行,使得人臉識別在應用和準確率更是達到了一個較高的水準。
下面將帶著大家揭秘下這項黑科技的原理。另外如果你想要系統地學習人工智慧,那麼推薦你去看床長人工智慧教程。非常棒的大神之作。教程不僅通俗易懂,而且很風趣幽默。點選這裡可以檢視教程。
1、人臉識別流程
人臉識別是由一系列的幾個相關問題組成的:
首先找到一張圖片中的所有人臉。
對於每一張臉來說,無論光線明暗或面朝別處,它依舊能夠識別出是同一個人的臉。
能夠在每一張臉上找出可用於他人區分的獨特之處,比如眼睛多大,臉有多長等等。
最後將這張臉的特點與已知所有人臉進行比較,以確定這個人是誰。
第一步:找出所有的面孔
很顯然在我們在人臉識別的流程中得首先找到圖片中的人臉。我們在使用手機或相機拍照時都會有人像模式,它能輕鬆的檢測出人臉的位置,幫助相機快速對焦。
我們得感謝 保羅·比奧拉(Paul Viola)和邁克爾·瓊斯(Michael Jones)在2000年發明了一種能夠快速在廉價相機上執行的人臉檢測方法,人臉檢測在相機上的應用才成為主流。然而現在我們有更可靠的解決方案HOG(Histogram of Oriented Gradients)方向梯度直方圖,一種能夠檢測物體輪廓的演算法。
首先我們把圖片灰度化,因為顏色資訊對於人臉檢測而言沒什麼用。
我們分析每個畫素以及其周圍的畫素,根據明暗度畫一個箭頭,箭頭的指向代表了畫素逐漸變暗的方向,如果我們重複操作每一個畫素,最終畫素會被箭頭取代。這些箭頭被稱為梯度(gradients),它們能顯示出影像從明亮到黑暗流動的過程。
分析每個畫素對我們來說有點不划算,因為它太過細節化了,我們可能會迷失在畫素的海洋裡,我們應該從更高的角度觀察明暗的流動。
為此我們將影像分割成16x16畫素的小方塊。在每個小方塊中,計算出每個主方向有多少個剃度(有多少指向上,指向右上,指向右等)。然後用指向性最強的那個方向箭頭來代替原來那個小方塊。
最終結果,我們把原始影像轉換成一個非常簡單的HOG表達形式,它可以很輕鬆的捕獲面部的基本結構。
為了在HOG影像中找到臉部,我們需要做的是,與已知的一些HOG圖案中,看起來最相似的部分。這些HOG圖案都是重其他面部訓練資料中提取出來的。
第二步:臉部的不同姿勢
我們已經找出了圖片中的人臉,那麼如何鑑別面朝不同方向的人臉呢?
對於電腦來說朝向不同的人臉是不同的東西,為此我們得適當的調整扭曲圖片中的人臉,使得眼睛和嘴總是與被檢測者重疊。
為了達到目的我們將使用一種面部特徵點估計(face landmark estimation)的演算法。其實還有很多演算法都可以做到,但我們這次使用的是由瓦希德·卡奇米(Vahid Kazemi)和約瑟菲娜·沙利文(Josephine Sullivan)在 2014 年發明的方法。
這一演算法的基本思路是找到68個人臉上普遍存在的點(稱為特徵點, landmark)。
下巴輪廓17個點 [0-16]
左眉毛5個點 [17-21]
右眉毛5個點 [22-26]
鼻樑4個點 [27-30]
鼻尖5個點 [31-35]
左眼6個點 [36-41]
右眼6個點 [42-47]
外嘴唇12個點 [48-59]
內嘴唇8個點 [60-67]
有了這68個點,我們就可以輕鬆的知道眼睛和嘴巴在哪兒了,後續我們將圖片進行旋轉,縮放和錯切,使得眼睛和嘴巴儘可能的靠近中心。
現在人臉基本上對齊了,這使得下一步更加準確。
第三步:給臉部編碼
我們還有個核心的問題沒有解決, 那就是如何區分不同的人臉。
最簡單的方法就是把我們第二步中發現的未知人臉與我們已知的人臉作對比。當我們發現未知的面孔與一個以前標註過的面孔看起來相似的時候,就可以認定他們是同一個人。
我們人類能透過眼睛大小,頭髮顏色等等資訊輕鬆的分辨不同的兩張人臉,可是電腦怎麼分辨呢?沒錯,我們得量化它們,測量出他們的不同,那要怎麼做呢?
實際上,對於人臉這些資訊很容易分辨,可是對於計算機,這些值沒什麼價值。實際上最準確的方法是讓計算機自己找出他要收集的測量值。深度學習比人類更懂得哪些面部測量值比較重要。
所以,解決方案是訓練一個深度卷積神經網路,訓練讓它為臉部生成128個測量值。
每次訓練要觀察三個不同的臉部影像:
載入一張已知的人的面部訓練影像
載入同一個人的另一張照片
載入另外一個人的照片
然後,演算法檢視它自己為這三個圖片生成的測量值。再然後,稍微調整神經網路,以確保第一張和第二張生成的測量值接近,而第二張和第三張生成的測量值略有不同。
我們要不斷的調整樣本,重複以上步驟百萬次,這確實是個巨大的挑戰,但是一旦訓練完成,它能攻輕鬆的找出人臉。
慶幸的是 OpenFace 上面的大神已經做完了這些,並且他們釋出了幾個訓練過可以直接使用的網路,我們可以不用部署複雜的機器學習,開箱即用,感謝開源精神。
這128個測量值是什麼鬼?
其實我們不用關心,這對我們也不重要。我們關心的是,當看到同一個人的兩張不同照片時,我們的網路需要能得到幾乎相同的數值。
第四步:從編碼中找出人的名字
最後一步實際上是最簡單的一步,我們需要做的是找到資料庫中與我們的測試影像的測量值最接近的那個人。
如何做呢,我們利用一些現成的數學公式,計算兩個128D數值的歐氏距離。
這樣我們得到一個歐式距離值,系統將給它一個認為是同一個人歐氏距離的閥值,即超過這個閥值我們就認定他們是 同 (失) 一 (散) 個 (兄) 人 (弟)。
人臉識別就這樣達成啦,來來我們再回顧下流程:
使用HOG找出圖片中所有人臉的位置。
計算出人臉的68個特徵點並適當的調整人臉位置,對齊人臉。
把上一步得到的面部影像放入神經網路,得到128個特徵測量值,並儲存它們。
與我們以前儲存過的測量值一併計算歐氏距離,得到歐氏距離值,比較數值大小,即可得到是否同一個人。
2、人臉識別應用場景
人臉識別分兩大步驟,人臉檢測和人臉識別,它們應用場景也各不相同。
人臉檢測目的是找出人臉,得到人臉的位置,我們可以在美顏,換膚,摳圖,換臉 的一些場景中使用到它。我們可以透過系統API呼叫相機完成對預覽針的實時渲染,那些看上去的黑科技我們也可以玩啦。
而人臉識別則可以在會員,支付等場景中使用,帶給使用者更酷的使用場景,快來試試吧。