引言:忘掉你想象的人工智慧末世吧,人工智慧真正的危險是它對刮刀(詳見後文,一次令人哭笑不得的非監督學習事件)的執著,以及它從我們身上學來的偏見。
我還小的時候,沒人跟我保證以後會有會飛的汽車,但卻有人信誓旦旦人工智慧會帶來世界末日。這些鋥亮的機器會踏碎我們的頭顱,而我們所有人都要歡迎這些新的機器主宰者。還記得這些嗎?很多人似乎還是認為這很可能發生。嗯,這就跟會飛的汽車一樣沒有發生。但我們還是有可能踏入人工智慧噩夢般的致命場景,只是要比我們在青蔥時代想象的那些終結者和賽博人要古怪隱祕得多。
人工智慧,也就是AI,就是可以通過資料進行學習的軟體程式。這也是為什麼工程師一般更喜歡將它們叫做機器學習。給你的機器學習程式喂一個龐大的資料集——比如說YouTube上的所有視訊——它就會“學習”著去尋找其中的規律。有個著名的例子,2012年穀歌將AI放到YouTube上吃視訊的時候,AI就學會了怎麼把貓認出來。這聽起來很驚人,不過然後你就會發現谷歌的這個AI同樣著迷於傾斜30度的刮刀(沒人知道為什麼AI同時學會了這個)。
如果你想理解AI真正的危險,你就要認真想想這些刮刀。並不是說這些程式出錯了,而是它們識別出了我們看不出來的規律。跟對刮刀出乎意料的迷戀比起來,有時候這些規律要惹出更大的麻煩。
比如說,微軟曾經在推特上推出一個叫做Tay的聊天AI,在24小時它就學會了罵人,甚至口吐納粹標語了。它本來是設計成從這個社交平臺上通過對話來學習的,但卻很快變成了種族主義者。
編者補充:2010年,清華圖書館推出了機器人小圖,除了能提供圖書查閱等功能,還能和人逗悶子,因無厘頭的表現而躥紅網路,但到了2012年二月,清華緊急下線了小圖,原因是小圖已經被網友教壞滿口髒話。經過人為過濾,回爐重造的小圖在3月重新上線,不過有好事的記者測試發現,小圖還時不時的會“重口味”來那麼一句,比如被問急了“以後別再說髒話了好嗎”,小圖會甩下一句“我發誓我XX再也不說髒話了”(後面這段趣聞到不一定是機器學習的結果,不排除是人為的小小惡趣味)。
接著說回美國的案例,佛羅里達州的警察用到的一個罪案預測演算法也出現了類似的問題。這個軟體將黑人標記為比白人更傾向於犯罪,即使證據的指向都與之相反。而當政治科學家弗吉尼亞·尤班克斯(Virginia Eubanks)調查美國的醫療保險演算法的時候,她發現其中有著固有的偏見,使得窮人更難得到醫療保障。
每個見過人類並且發現我們傾向於懷有偏見的人,都不會覺得這有多驚人。AI並不是自身擁有政治議程的自主個體。它們通過我們的資料進行學習。可以把AI看成義肢,它們是人類的延伸,只是長處和缺陷都跟我們稍有不同。
“人工智慧噩夢般的致命場景要比我們在青蔥時代想象的那些終結者要古怪得多。”
有時候它們可以比我們更有效地從我們的資料中察覺有規律的偏見,然後它們就根據這些偏見行動,因為它們就是聽話的程式。
谷歌和微軟在最近向美國證券交易委員會各自提交的年度報告中,都首次承認了這個問題。谷歌宣告,AI有可能帶來“倫理、技術、法律以及其他型別的挑戰”。微軟說得就更簡潔:“AI演算法有可能出錯。”
排除人類資料沒什麼幫助,當AI從其他AI那裡學習的時候,問題會更糟糕。在2010年,軟體機器人之間的演算法交易引發了“閃電崩盤”,當時美國證券市場突然下跌998.5點,在大約30分鐘之後才收復失地。
最近YouTube的工程師報告說,他們害怕所謂的“逆轉”,在這個情景中,網路充斥著大量由機器人操控的賬戶,以至於AI會把真實的訪問者當作機器人遮蔽掉。
好訊息是,所有這些失敗都意味著我們不需要與機器人軍隊對抗。我們避免上述形式的AI世界末日的唯一方法,就是除錯我們自己的錯誤。人們已經在研究如何改正演算法中的種族和階級偏見,也在更多地思考某些敏感任務自動化的倫理問題。
谷歌的僱員在發現僱主正在設計一套監控無人機的機器學習演算法,用以自動識別敵方打擊目標時,就發起了一場抗議。迫於壓力,谷歌公司停止了對這項計劃的參與。但還有很多其他公司正在給武器加入自動化系統,其中包含無意識的人類偏見。這就是為什麼歐盟號召國際社會監管目前正在開發的所謂“致命自主武器系統”。
前路多難。執著於想象中的殺手機器人,要比起消除帶有偏見的資料的影響要容易得多,這些資料是數十年來的累積,我們對它一點都不明白。但這個艱鉅的任務也帶著一絲希望。說到底,改進我們的AI,可能也會改進我們的人性。
本文題圖:pixabay
參考資料
[1] https://www.newscientist.com/article/mg24232321-400-forget-rampant-killer-robots-ais-real-danger-is-far-more-insidious/