美國標準與科技協會(NIST)釋出了新報告“人臉識別供應商測試”,分析了人臉識別種族歧視產生的原因。

人臉識別系統中潛在的偏差來源

在對偏差的討論中,報告並沒有具體說明,但效能指標顯示,任何一個在理論上都可能存在人口差異。一個階段的錯誤通常會產生下游後果。

影像質量的影響

最近的研究表明,攝像頭可以對通用的下行識別引擎產生影響。糟糕的影像可能會破壞檢測或識別,而且某些人口統計資料可能會產生不適合人臉識別的照片,例如幼兒或非常高大的個體。如上所述,在捕獲階段,即在與其他影像進行任何比較之前僅收集單個影像時,可能會出現人口統計學差異。在收集過程中出現的人口統計差異可能(至少)源於攝像機、環境或“階段”以及客戶端檢測或質量評估演算法的不足。

攝影標準

人臉識別是對從兩張照片中提取的特徵的微分進行操作。精確度可能會受到糟糕的攝影/照明/呈現以及這些方面的差異的影響。當然,一張曝光嚴重不足的照片無法沒有足夠的資訊內容,但兩張即使曝光程度稍差的照片也可以匹配,而且當代領先的演算法對質量降級都有很高的容錯度。

年齡和老齡化

衰老將在幾十年內改變容貌,最終將破壞自動人臉識別。年齡本身是人口統計因素,因為老年人和年輕人的準確性和指紋認證都不同,即使兩張照片之間沒有明顯的時間間隔。

PDF版本將分享到199IT交流群,支援我們發展可加入!
NIST:人臉識別供應商測試報告