關於人臉識別濫用的十個可能的應對方案

dicksonjyl560101發表於2019-12-22

本文對此提供十項人臉識別政策建議,大致從人臉資料、測試技術、認證評估主體三個層面予以應對潛在的人臉識別風險。

十大建議核心提要:

  1. 限制資料儲存期限
  2. 限制資料分享
  3. 公共場所設立人臉識別標識
  4. 提升人臉識別精準度
  5. 開展第三方獨立評估
  6. 減少附帶資訊收集
  7. 商業場景納入opt-in與opt-out機制
  8. 制定統一的技術標準
  9. 完善標準化組織認證
  10. 確保資料代表性以及測試實操化

當前,人臉識別應用不斷深入日常生活,在失蹤搜救、安保升級、導盲、反恐等領域都有廣泛應用,但同時也引發了民眾的不安與質疑。

鑑於人臉識別技術的應用尚有眾多不確定風險,本文對此提供十項人臉識別政策建議,大致從人臉資料、測試技術、認證評估主體三個層面予以應對潛在的人臉識別風險。

1. 限制資料儲存期限

所謂人臉識別(Facial Recognition),是指標對特定場景的靜態影像或動態影片,利用現存已儲存好的若干人臉影像資料庫,驗證和識別具體場景下的單個或多個人的身份匹配。

人臉識別通常由三部分組成: 具體場景中人臉檢測(Face Detection)並分割人臉、抽取分析人臉特徵、匹配資料庫識別人臉。

人臉影像的長期數字化儲存是人臉識別最令人恐懼的原因之一,這些人臉資訊有諸多被濫用風險,迫切需要應對方式變革以消解公眾焦慮,方式之一就是設定影像與影片儲存期限。當處於突發狀態的危急情景之際,某些特定影像資料儲存確有必要。

一旦危險期已過,則無需保留危急時刻留存的人臉資料。因此,對大多數應用場景來說,限制人臉資料儲存期限可以平衡人臉識別帶來的多重好處與最小化風險二者之間的利益平衡。

具體儲存時間依情景不同而各異。比如為應對突發狀況所編譯的特定影像具有高瞬時價值,而其他情形則需納入龐大的資料庫已備後續匹配並識別人臉特徵。

在此介紹一種保障資料安全性的機器學習模式——聯邦學習(Federated Learning)。此種學習模式是一種訓練資料去中心化的機器學習方案,確保資料只儲存在攝像頭終端,而不傳輸到中央資料中心,從而提升資料安全性。

2. 限制資料分享

同一資料被用於多個不同目的之間分享流轉,令人擔憂。例如美國車輛管理局將識別影像出售給第三方機構,用於其他場景的人臉識別。

此種擔憂在於分享人臉資料過程中,資料主體完全不知曉資料挪作他用,致使知情同意機制失靈,甚至就算資料主體事前知悉,也很可能不同意將面部識別資料分享給商業機構以用於商業化利用。因此,若想要跨場景分享人臉識別資料,必須提供正當化事由。

根據布魯金斯學會民意調查,民眾對人臉識別的態度依場景而異。其中將識別技術用於保護在校學生的同意率高達41%,用於機場安檢以及體育場的同意率大致為30%,而同意率最低的則是商店用來防止偷盜。

3. 公共場所設立人臉識別標識

無論是私主體還是公權力機構,當用於拍照、拍攝影片或以其他用途收集公眾資訊以識別人臉時,都應該在公共場所設立明確的人臉識別標識,明確告知民眾此處有人臉識別系統,進而潛在影響公眾對公共秩序的遵守。

長此以往,不僅會提升民眾對人臉識別使用的公共安全意識,也可保障不願被記錄面部資訊的群體之選擇自由。

4. 提升人臉識別精準度

人臉識別精準度首先會受到識別物件——不同種族群體的影響。人臉模式特徵可以分為膚色特徵與灰度特徵兩大類,膚色作為人臉的重要資訊,獨立於其他面部細節,具備相對穩定性。但人臉識別系統針對白人的識別準確率要比非白人群體高,並且膚色越深精準度越低,此時識別偏見傾向會被膚色的相對穩定性放大。

此外,由於種族人群的訓練資料的不完整和非代表性,也會加劇人臉識別的固有偏見。當該技術應用於執法、邊境安全、零售、機場等公共場所時,會存在不同種族群體被偏見、歧視等問題。

另一個造成識別精準度下降的重要因素是光照。畢竟作為三維物體的人臉不可避免地受光照陰影、照射強度等外在因素的干擾。光照會改變人臉影像灰度的相對分佈,所以光照引起的人臉影像變化高於個體差異導致的變化。

據卡迪夫大學(Cardiff University)的一項研究表明,澳大利亞曾出現過數千例人臉匹配錯誤事件。由此看出,在大規模應用於公共場所前,明確人臉識別精準度標準最為迫切,而標準的明確可以從對民眾生活的影響度高低來判斷。若執法過程中嚴重干涉到民眾的核心權利,譬如被拘捕或監禁,則識別度必然要達到相應級別。

5. 開展第三方獨立評估

引入第三方獨立評估可以提振民眾對其人臉識別產品與服務的信心,消費者希望買到的產品發揮其固有功效,而不產生其他技術問題。為了幫助消費者知曉人臉產品功能與潛在隱患,可考慮建立人臉識別星級評級體系,或者仿照美國能源部與環境保護署共同推行的能源之星計劃(Energy Star),將眾多人臉識別應用納入第三方評估認證範圍。

6. 減少附帶資訊收集

部分人臉識別應用會收集與主要目的無關的海量資訊,違背“最小夠用原則”。例如當警方攜帶隨身攝像機前往現場勘察時,他們不僅在拍攝嫌疑人,也會恰巧拍攝到附近路人。除非有明確表明這些證據與案件相關,否則執法機構無需存留無關資訊。當拍攝到的影像不再具有調查價值時,可以模糊處理甚至刪除。

7. 商業場景納入opt-in與opt-out機制

所謂選擇加入(opt-in)指的是涉及識別的人臉生物資訊在分享利用之前,要獲得資料主體的同意。例如,人臉識別技術將檢測出的姓名關聯到個人畫像並向本人推送商業廣告的情形下,就需要事前尊重其選擇同意權。

在全球加強個人資料保護的大背景下,資料主體愈發關切個人隱私。作為人臉識別背後的生物資訊隱私,本身就具備典型的可識別性,屬於個人生物資料,理應納入個人敏感資料範疇被著重保護。

在選擇加入機制之外,選擇退出機制(opt-out)與被遺忘權也可以適用。在危險係數較低無需長期儲存資料的情景中,賦予民眾有權選擇相關機構不得繼續收集或者資料分享維持在可接受的合理水平。而隨著時間推移,當初高價值的人臉資料可能逐漸變得過時、不相關、超範圍、甚至有害,此時引入被遺忘權就顯得非常必要,可以提升民眾對人臉識別的接受程度。

8. 制定統一的技術標準

市場私主體制定技術標準以確保產品安全是慣常手段。以當年的移動通訊技術為例,在其尚處於發展階段之際,業內專家就制定了通訊、安全和相容性的通用標準。所有手機必須滿足上述技術規範才能出售。而如今的人臉識別技術也遵循同樣道理。

人臉識別技術也應該制定國際通用技術標準,確保人臉技術安全、隱私不受侵犯,緩解世人恐懼。誠如一切技術都具有兩面性,人臉識別技術也急需打造“負責任的人臉識別”。

慶幸的是,美國電氣和電子工程協會(IEEE)以及美國國家標準與技術研究院(NIST)正在制定統一的技術標準,以規範相關技術應用。

9. 完善標準化組織認證

企業系統安全係數由國際標準化組織(ISO)驗證。企業特定產品由ISO組織評估是否滿足監管規則要求,第三方機構進行合規測試,從而保障消費者對全流程技術標準的知情權。

在美國,NIST負責產品技術認證。其透過公共資料庫去比對人臉檢測結果,同時認證相關應用。但有聲音批評NIST過度依賴私人網站上的初始資料,無法推廣到日常使用場景;NIST資料選擇面過窄,只聚焦於與執法相關的人臉資料;測試標準單純依賴於影像質量與操作功能等等。因此,人臉技術驗證應當將自動測試與人工稽核相結合,完善標準化組織認證,打造可靠測試與可信驗證。

10. 確保資料代表性以及測試實操化

為了確保人臉識別準確度,面部驗證、技術標準以及政府合規測試方面需建立在有廣泛代表性的、非特定用途的資料基礎之上。而在人臉識別商業化浪潮下,採用有表性的資料庫用於基線測試以及產品認證顯得尤為關鍵。

單一用途資料例如警用面部照,並不能完整代表所有群體,測試價值會大打折扣。除了資料需要有代表性之外,測試實操化對於提升公眾對人臉識別的疑慮也尤其重要。畢竟基於海量影像資訊、實際應用環境以及有代表性的人群樣本分組之上的人臉識別測試,可以有效克服光照條件以及影像解析度對測試精準度的負面影響。

注:本研究報告出自布魯金斯學會(Brookings Institution)於10月31日釋出的《10 actions that will protect peoplefrom facial recognition software》。

 

譯者:蔡雄山、袁俊;公眾號:騰訊研究院(ID:cyberlawrc)

來源: https://mp.weixin.qq.com/s/A8TII44wUTQi_cmu2ztvsA



https://blog.csdn.net/weixin_42137700/article/details/103553310




來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2669867/,如需轉載,請註明出處,否則將追究法律責任。

相關文章