AI的道德挑戰

技術小能手發表於2018-05-29

機器學習演算法無處不在。除了Facebook和Google之外。其他公司也正在利用它們提供個性化的教育服務和先進的商業情報服務,來對抗癌症和檢測假冒商品。從農業到製藥。從AI控制的自主車輛到臨床決策輔助軟體。

這項技術將使我們集體富裕,變得更有能力來提供人類福利,人權,人類正義和培養我們在社群生活中所需的美德。我們應該歡迎它,盡我們的所能促進它。

但與任何新技術一樣,同時我們也面臨著一些道德挑戰。包括新技術是否公平透明?這些好處是否能讓全民共享?他們會加強現有的不平等嗎?

開發和使用AI系統的組織需要遵循一定的道德準則來指導他們面對已經存在於我們之間的和未來有可能出現的挑戰。

去年,我所在的行業協會 – 軟體和資訊行業協會發布了一個關於人工智慧和資料分析道德準則的問題簡報,以應對這些挑戰。它依據古典的道德倫理權利,福利和傳統美德,敦促組織仔細檢查他們的資料實踐。

公司需要來恢復其在商業道德方面的思考能力,特別是在有關收集和使用資訊的決策方面。這些原則是一個切實可行的指南。

SIIA不是唯一一個試圖將道德考量引入AI和資料分析領域的實體。電腦科學小組也秉持著公平,問責和透明的原則為機器學習(FAT / ML)起草了自己的規範。在Asilomar召開會議的另一組電腦科學家則起草了更廣泛的規範。IEEE提出了與設計中的道德價值相關的原則。ACM最近釋出了一套旨在能夠確保大眾公平使用AI演算法的原則。資訊問責基金會在其關於人工智慧,道德和增強資料管理的報告中制定了一套非常有用的規範。

政府也為AI倫理問題努力著

2017年10月的經合組織(OECD)會議上,針對人工智慧的一些不同的倫理方法,在智慧機器、智慧政策的會議上被公開。日本人在2016年G7會議上和義大利人在2017年G&會上提出了對AI的道德規則的需求。最近的G7會議於2018年3月28日結束,期間發表了一份關於人工智慧的宣告,鼓勵人們研究“審查人工智慧的倫理問題”。美國政府也在最近宣佈將“與我們的盟友合作”以促進對“人工智慧技術”的信任。

盟委員會在其最近釋出的歐洲人工智慧通訊中,提出在人工智慧聯盟內製定“人工智慧道德準則”,它來源於歐洲科學和新技術道德倫理組織發表的宣告。

這都是積極的發展。但需要注意幾點。抽象的道德宣告只會讓我們止步不前。可行的道德原則需要考慮AI在特定情況下的使用方式。例如,自主武器所涉及的倫理問題與使用人工智慧進行累犯評分或就業篩查所涉及的倫理問題就有很大的不同。這就是為什麼SIIA提供了關於如何將權利、正義、福利和美德的一般原則應用於不同的案例分析來確保演算法公平的具體建議。

此外,沒有隻適用於人工智慧,而不適用於其他資料分析和預測模式的特殊道德準則。需要在人工智慧應用的開發和實施中應用和解釋,尊重權利,促進福利和培養人類美德的道德要求,這需要進行大量艱苦的概念和實踐工作才能做到這一點。但這與為AI尋求獨特的規範性指導方針並不相同。

Elon Musk等一些人認為,必須超越道德標準,才能達到監管目的

在某些特定的領域裡,為了部署技術,有些問題是緊急的,必須要解決。有必要搞清楚自動駕駛汽車的責任,或者在食品和藥物管理局為臨床決策支援系統制定一個監管框架。

但正如AI沒有特殊的道德原則一樣,也不需要設定任何單純適用於AI的特殊法規或法律。AI涵蓋了無限多種分析技術;它根本不是實體企業。由國家機構實施的一般的人工智慧管理,應該就像擁有一個用於統計分析的監管機構一樣!

2016年人工智慧百年研究報告總結道:“一般來說,對人工智慧進行規範的嘗試是錯誤的,因為沒有AI的明確定義(它不是任何東西),而且風險和需要考慮的因素在不同的領域有很大的不同。”

這並不意味著人工智慧可以不受管制。目前的法律法規仍然適用。使用AI的時候,沒有可以免於監獄的免費卡。這不是可以違反法律的辯解。公司不能逃避公平貸款或公平住房法的責任,例如,不能因為他們解釋說他們使用了人工智慧技術而可以區別對待。

無論監管狀況如何,組織都需要有人來指導他們如何適應在這項技術付諸實踐時所面臨的諸多道德挑戰。善良,尊重人格,正義和培養美德的準則可以為人工智慧和先進的資料分析技術提供路線圖和一些重要的保障。

原文釋出時間為:2018-05-29

本文來自雲棲社群合作伙伴“企業網D1Net”,瞭解相關資訊可以關注“企業網D1Net”。


相關文章