本文由 「AI前線」原創,原文連結:別以透明的名義降低人工智慧的能力
作者|馬卓奇
編輯|Emily
AI 前線導讀: 人工智慧系統將來會撞毀我們的汽車,還會給美國黑人判更長的刑期。我們知道這會發生是因為它們已經在這些方面出了問題。儘管很多人認為人工智慧需要給出解釋,例如歐洲委員會已經出臺的通用資料保護條例。但是這並不意味著我們需要讓人工智慧解釋每個重要的情況下,它是如何做出決斷的。
要求可解釋性聽起來沒什麼,但要做到這一點可能會讓人工智慧變得沒那麼智慧。鑑於人工智慧的前景來自於機器學習,壓制這項技術意味著診斷疾病的失敗,忽視氣候變化的重要原因,或者使得我們的教育制度過於一刀切。充分利用機器學習的力量很可能意味著我們所依賴的結果無法向人類解釋。
機器學習,特別是深度學習,可以分析資料,產生成千上萬的變數,把它們排列成非常複雜的、敏感的加權關係矩陣,然後通過計算機神經網路反覆執行那些矩陣。想要了解演算法的結果,比如為什麼系統認為你有 73% 的可能得糖尿病,或者一步棋有 84% 的機會最終帶來勝利,可能需要理解那些由神經網路多次運算得到的大型變數之間的關係,而我們的大腦根本無法處理這麼多的資訊。
目前有許多令人興奮的工作,正在試圖讓機器學習的結果能夠被人類所理解。例如,有時通過觀察可以發現哪些變數的權值最高。有時對運算過程的視覺化可以顯示系統是如何得出它的結論的。但情況並非總是如此。所以我們可以不再堅持可解釋性,也可以說服自己這些機器不一定總是給出最準確的結果。如果機器學習只是被用於生成電影推薦列表,準確性或許無關緊要,但是在醫療和自動駕駛的問題中,則是一個生死攸關的大事。
其實可以把可解釋性看作是一種工具,我們用它們來達到一些目標。對於機器學習,可解釋性可以幫助開發人員除錯出錯的系統。它也可以用來判斷一個結果是不是通過不算數的因素(性別、種族等)而得到的,然後評估它的可靠性。然而,我們有其他的方法可以達到預期的結果,而不需要抑制機器學習系統的能力來幫助我們。
優化便是一個很有前途並且已經相當成熟的工具。例如,上世紀 70 年代石油危機期間,聯邦政府決定通過優化公路來省油,將高速公路的最低限速下降至 55。類似地,政府也可以決定自動駕駛汽車的優化方向。
假設政府官員決定自動駕駛車輛系統應該以降低美國交通事故的死亡人數為目的進行優化。2016 年這個數字是 37000,如果死亡人數急劇下降——McKinsey 表示自動駕駛汽車可以降低 90% 的交通事故死亡率——然後系統達到了優化的目標,那麼肯定會舉國歡騰,即使沒有人能理解為什麼哪個特定的車輛“決定”了什麼。事實上,當自動駕駛汽車形成網路並且協作決定自己的行為時,它們的行為可能會變得很莫名奇妙。
現在,確定自動駕駛車輛的優化方向將比這更復雜。可能會有優先順序:自動駕駛汽車或許首先進行以減少傷亡為目的進行優化,然後是減少傷害,然後是減少對環境的影響,然後是減少駕駛時間等等。優先權的確切層次是監管者必須解決的問題。
無論結果如何,重要的是,現有的民主程式決定了優化方向,而不是商業利益。讓市場決定也有可能帶來次優的決策,因為汽車製造商也有強烈的設計動機,讓他們的汽車成為最頂級的自動駕駛汽車。很難說,最好的自動駕駛汽車會不會是一個 《瘋狂的麥克斯》風格的布加迪威龍。這些都是影響公共利益的問題,應該在政府的公共領域進行決定。
但是僅僅規定優化方向然後測試結果是不夠的。假設交通事故死亡人數從 37000 下降到 5000,但有色人種在受害者中佔較大比例。或者假設一個 AI 系統要挑選出值得面試的求職者,但其中只有一小部分是女性。顯然,優化是不夠的。我們還需要限制這些系統來支援我們的基本價值觀。
為此,AI 系統需要對他們的優化方向和結果透明,尤其是考慮到我們希望它們所支援的重要價值觀念。但我們不需要他們的演算法是透明的。如果一個系統不能滿足它的目標,可以一直調整直到它滿足。但是如果它達到了目標,那麼解釋是沒有必要的。
但是人們應該怎樣對人工智慧系統進行優化呢?用什麼來約束?這些都是很難回答的問題。如果一個矽谷的公司使用人工智慧為開發者崗位挑選求職者,我們還要堅持挑選出來的女性佔 50% 嗎?或者這個比例至少要等於電腦科學專業畢業生中女性的比例?我們會滿足一步一步實現性別平等嗎?我們想要崗位池中有 75% 的女性以彌補過去的不公正嗎?這些問題很難回答,但一個民主國家不應該把它留給商業實體來得到答案。應該讓公共領域來進行優化和約束。
對於在自動駕駛事故中去世的 5000 人來說,自動駕駛拯救了 32000 人也是無濟於事的安慰。鑑於自主車輛瞬態網路的複雜性,有可能是沒有辦法解釋為什麼你的艾達阿姨死於連環車禍。但我們也不想每年再犧牲 1000 或 10000 人,只是為了讓交通系統可以解釋給人類。因此,如果可解釋性的確會影響系統降低死亡率的效率,那麼無過錯的社會保險(政府資助的保險,無需定責)應常規用於賠償受害者和他們的家人。什麼也不能挽回受害者的生命,但至少會有更少的艾達阿姨在車禍中死亡。
我們有理由朝這個管理方法前進:它讓我們從先進的、超越人類理解能力的 AI 系統中受益。
它的重點在制度層面而不是個別事件的討論。通過將 AI 和它所取代的過程進行比較,或許我們可以改變周圍的一些由 AI 引起的道德恐慌。
它將執政問題作為需要通過現有流程來解決的社會問題,以解決政策議題。
而且它將這些系統的管理放到人類、社會的框架下,讓它們服從人的需求、慾望和權利。
把 AI 的管理看作是優化問題,我們可以把主要焦點集中在真正重要的事情上:我們想從一個系統得到什麼,為了得到它我們願意放棄什麼?
原版評論:
檢視英文原文:
更多幹貨內容,可關注AI前線,ID:ai-front,後臺回覆「AI」、「TF」、「大資料」可獲得《AI前線》系列PDF迷你書和技能圖譜。