不平等加劇與問責機制:紐約大學AI Now研究所2018 AI現狀報告

機器之心發表於2018-12-13

紐約大學 AI Now 研究所釋出了第三份關於人工智慧現狀的年度報告。2018 年 AI Now 報告重點關注行業 AI 醜聞和不平等加劇等主題,還評估了人工智慧道德與有意義的問責制之間的差距,研究了組織和監管在人工智慧中的作用。值得注意的是,報告指出,大學課程和教學大綱需要擴大 AI 的學科定位,應當包含社會和人文學科,有必要讓電腦科學系的教師和學生研究社會。很多人已經開始落實這一點。以下是執行摘要的主要內容。

2018 年,一連串圍繞人工智慧醜聞的核心是問責制問題:

人工智慧系統傷害我們時,誰負責?如何理解並解決這些危害?干預點在哪裡?需要哪些額外的研究和監管來確保這些干預措施有效?

目前,問題的答案很少,當前的人工智慧治理框架無法確保問責。然而,隨著人工智慧系統普遍性,複雜性和規模的擴大,缺乏有意義的問責和監督(包括職責、問責以及正當程式的基本保障),日益成為一個迫切問題。

在 2016 年和 2017 年報告的基礎上,AI Now 2018 報告將與這一核心問題做鬥爭,並試圖解決以下幾個關鍵問題:

1. 人工智慧發展過程中,責任分配上鴻溝日益變大,那些創造並部署這些技術的人獲得更加有利的地位,而這又是以犧牲那些最受技術影響人群的利益為代價;

2. 利用人工智慧實現監控的最大化,特別是與面部和情感識別相結合,這一趨勢加重了集中控制和壓迫的潛在威脅;

3. 政府越來越多地使用會直接影響公民和社群的自動決策系統,但卻沒有既定的問責制結構;

 4. 對人群進行各種不受管制、不受監督的人工智慧實驗;

5 用技術解決公平,偏見和歧視問題存在侷限性。

每個主題中,我們都指出了新挑戰和新研究,併為 AI 開發,部署和監管等工作提出建議。我們也會根據研究成果提出可行的解決路徑,以便決策者,公眾和技術人員更好地瞭解和降低風險。鑑於 AI Now Institute 的地理位置在美國,本報告將主要關注美國,美國也是世界上幾家最大 AI 公司所在地。

人工智慧問責鴻溝正在擴大:2018 年的技術醜聞表明,研發並從人工智慧中獲利的人群,與最有可能受其負面影響人群之間的鴻溝正變得越來越大。

原因有幾個,包括缺乏政府監管,人工智慧部門過於高度集中,技術公司內部的治理結構不足,公司與其服務物件之間的權力不對稱,負責技術研究的工程隊伍之間存在明顯文化差異,以及被部署技術的人口群體存在多樣性。

這些差距正促使人們越來越關注偏見,歧視,正當程式,責任分配以及針對損害的全面擔責。本報告強調,我們迫切需要加強特定部門(比如車禍調查的國家公路交通安全管理局)的研究工作和監管職能。

人工智慧正在讓監控網路的變得更強大:美國,中國和世界上許多其他國家都極大擴充套件了人工智慧在監控網路中的應用,隨著感測器網路,社交媒體跟蹤,面部識別和情感識別越來越多地被採用,這一趨勢也日趨明顯。然而,這些趨勢不僅威脅到個人隱私,也加速了監控的自動化,監控的勢力範圍和普及程度也因此在迅速上升。這又帶來新的危險,並且放大了許多長期存在的問題。

儘管已被揭穿屬於偽科學,但情感識別的應用仍然在增加。所謂情感分析,是指通過仔細分析面部表情來解讀內心情感,也涉及情緒、精神監控、專注程度(engagement)、有罪或無罪等推測。這項技術已經被用於歧視和不道德的目的,卻往往不為人知。面部識別技術也存在風險,加劇了從刑事司法,教育到就業的扭曲、潛在歧視性做法,並讓多個國家人權和公民自由面臨風險。

各國政府正在迅速擴大自動化決策系統的使用,但沒有充分保護公民權利:政府機構正打著效率和降本的旗幟,採購和部署自動化決策系統(ADS)。然而,這些系統中有許多是未經測試的,而且設計不合理,侵犯公民權利的行為往往違法甚至違憲。更糟糕的是,當他們犯錯誤和做出錯誤決定時,很難甚至不可能提出質疑、異議並對其進行補救。一些機構正試圖讓系統的運作機制透明化,並提供正當程式和其他基本權利的執行機制,但是,商業保密和類似法律條款可能會阻止對這些系統的審計和充分測試。不過,通過本機構的積極努力以及最近的策略性訴訟,我們在報告中勾勒出 ADS 問責的主要途徑。

針對人類群體進行毫無基本規則(in the wild)的 AI 測試,而且非常猖獗:矽谷以「快速移動和顛覆」的心態而聞名,公司被迫快速嘗試新技術而不太關注失敗造成的影響,包括承擔風險的人。過去一年中,我們已經看到越來越多部署 AI 系統的測試沒有基本規則可言,沒有適當的通知,同意或問責協議。這種實驗之所以得以持續,部分原因在於缺乏對後果的清楚認知。當危害發生時,通常不清楚責任在哪裡或由誰負責。研究並分配適當的責任和義務,仍然是當務之急。

利用技術解決公平,偏見和歧視問題的侷限性:已經有許多新的研究旨在讓數學模型實現結果「公平」,以避免歧視。然而,如果沒有一個可以解釋社會和政治背景和歷史的框架,這些公平的數學公式幾乎不可避免地漏掉一些關鍵因素,甚至還會用最終增加傷害或忽視正義的方式來解決更為深刻的問題。對於確保解決核心問題並將重點從平等轉移到正義來說,超越單純的數學,擴大視野,擴大對 AI 公平性和偏見的研究,至關重要。

轉向道德原則:今年出現了許多人工智慧技術建立和部署的道德原則和指南,其中許多是為了解決人們對技術的擔憂。但是,正如研究表明的那樣,如果這類道德承諾與問責制,與公司的實踐結構沒有直接聯絡,那麼,它們對軟體開發實踐幾乎產生不了什麼影響。此外,這些準則和指南很少得到法律層面的支援與監督,即便偏離準則,也沒有什麼後果責任。道德準則只有在真正融入人工智慧發展過程,並得到對大眾利益負責的問責機制的支援,才能真正有助於彌合人工智慧問責制的差距,

報告接下來詳細闡述了這些主題,並反映了最新學術研究,概述了繼續前行的七個戰略:

1. 擴大 AI 公平性研究,而不是僅僅關注數學和統計公平問題;

2. 研究和跟蹤建立 AI 所需的全部基礎設施,亦即人工智慧系統的「完整堆疊供應鏈」,這是更負責任的審計形式所必需的;

3. 考慮建立和維護 AI 系統所需的多種勞動形式;

4. 致力於深化人工智慧的跨學科性;

5. 分析 AI 存在的種族,性別和權力問題;

6. 制定新的政策干預和戰略訴訟;

7. 研究人員,社會和技術部門內的組織者之間建立聯盟。

這些方法旨在積極地重塑 AI 領域並解決日益增長的權力不平衡問題。

長按識別二維碼,獲得報告全文

不平等加劇與問責機制:紐約大學AI Now研究所2018 AI現狀報告

相關文章