當AI學會偏見 企業當為技術應用劃線

AIBigbull2050發表於2019-11-27

你對AI有什麼印象,沒有感情、不會犯錯,還是公正客觀?但總之,AI是不食人間煙 火的,既不會閃耀人性的光輝,也不存在“七宗罪”。實際上,AI並非那麼沒有人性,不過這並非一件好事。AI獲得智慧的同時,也學會了人類的“歧視”與“偏見”。

當AI學會偏見 企業當為技術應用劃線

  AI偏見廣泛存在

  麻省理工學院媒體實驗室的Joy Buolamwini曾研究過各個領先科技公司的面部識別系統,研究發現,所有的系統在識別男性面孔和淺色皮膚的面孔上擁有較高的準確率,其中,淺色皮膚男性的錯誤率不超過1%,而深色皮膚女性的平均識別錯誤率則高達35%。

  提及對整個安防行業產生深刻影響的AI技術,人臉識別肯定榜上有名,但AI人臉識別的這類偏見,也已經滲入了安防領域。安防領域中,帶有偏見的AI可能會讓清白無辜者蒙冤,受到無理審查,這並非杞人憂天。

  在英國,曾有一名黑人男性因人臉識別技術失誤而被誤認為嫌犯,在公眾場合遭到搜身檢查。Big Brother Watch UK報告也顯示,倫敦警察廳使用的面部識別技術有超過90%的性別識別錯誤率。

   AI為何會產生偏見?

  當前人工智慧還處於弱人工智慧階段,其“偏見”顯然取決於背後訓練演算法訓練的資料。如上所述,如果AI訓練資料庫中,白人、男性比黑人、女性更多,且膚色較深的人多與違法相關的場景同時出現,就會導致AI產生偏見,這是訓練集和測試機特徵分佈不一致導致的,在技術領域被稱為“過擬合”。

  目前針對演算法“過擬合”,已經有權值衰減、交叉驗證、新增正則項等方法。而關於如何解決演算法歧視問題,科技界則眾說紛紜。曾有人提出開發公正透明的演算法,讓公眾進行監督,但這一方法壁壘較高,需受過專業訓練才能夠進行監督。不過,現在已經有不少的科學家在努力開發出一套“公平公正”的演算法系統。

   科技向善 AI應服務於人類

  無論哪種方法,都不可能立竿見影地糾正AI偏見,因此,科技公司以及組織應當避免將“帶有明顯歧視性質的演算法”在不經測試之下應用到現實情景中。AI並無善惡之分,但人類需要推動科技向善。

  在安防領域,公安部門應用AI技術關愛孤寡老人,以往民警需要每天上門檢視孤寡老人狀態,現在可以透過人臉、人體及軌跡技術確認孤寡老人活動是否有異常;AI跨年齡人臉識別則可以憑藉一張泛黃照片找回被拐十年的兒童。

  透過一張3歲的泛黃照片,騰訊優圖利用AI技術突破“跨年齡人臉識別”,助力警方尋回被拐十年兒童。騰訊董事會主席馬化騰也多次在公開演講中闡釋“科技向善”的願景與使命。

  而在未來的演算法開發過程中,應該對演算法開發者進行適當的“演算法 倫理”教育,並且確定一些演算法的“基本準則”,如同“機器人永不能傷害人類”一樣。






來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2665836/,如需轉載,請註明出處,否則將追究法律責任。

相關文章