20141120.2

199IT資料中心微信賬戶:i199IT

翻譯:王相宜

埃博拉病毒聽起來像噩夢。禽流感和SARS也讓我脊背發涼。但是我告訴你什麼讓我最害怕:人工智慧。

如果有足夠的資源,人類能阻止前三項疾病的傳播。但最後一項是由人類所創造,它很快將變得無法阻擋。

在我們探討可能出現什麼問題之前,讓我先解釋一下什麼是人工智慧。實際上不用我解釋。我讓別人來解釋一下。你拿起iPhone,問問Siri天氣和股票情況。或者對她說“我喝醉了”,她的回答就是人工智慧的結果。

現在,這些人工智慧機器非常可愛、無辜,但是隨著它們在社會上被賦予更多權力,用不了多久它們就會失控。

一開始只是些小毛病,但是它們意義重大。比如,一臺出現故障的電腦瞬間讓股市崩潰,導致數十億美元的損失。或者一輛無人駕駛汽車因軟體升級錯誤在高速公路上突然靜止不動。

但是這些騷亂能快速升級,變得非常可怕,甚至變成大災難。想像一下,一個最初用來對抗癌症的醫用機器人可能得出這樣的結論:消滅癌症的最佳方法是消滅那些從基因角度講易於患病的人。

《超級智慧》(Superintelligence)一書的作者尼克·博斯特羅姆(Nick Bostrom)描述了幾種會導致人類滅絕的可怕情況。一種是能自我複製的奈米機器人。在理想情態下,這些機器人能在人體內戰勝疾病,或者消除地球上的放射性物質。但博斯特羅姆說,“如果有邪惡企圖的人掌握了這種技術,那可能導致地球上智慧生命的滅絕。”

人工智慧支持者們辯稱,這些事情永遠都不會發生,程式設計師們會設定一些防護措施。但是讓我們現實一點:程式設計師們花了近半個世紀才能讓你在每次想檢視郵件時電腦不崩潰。是什麼讓他們認為自己能夠駕馭這些準智慧機器人大軍?

不是隻有我一個人有這樣的擔心。矽谷的常駐未來主義者埃隆·馬斯克(Elon Musk)最近說,人工智慧“可能比核武器還危險”。斯蒂芬·霍金(Stephen Hawking)是地球上最聰明的人之一。他寫道,成功的人工智慧“會是人類歷史上最重大的事件。不幸的是,它也可能會是最後一個大事件”。還有很多計算機專家和科幻小說作家擔心未來的世界充滿故障機器人。

人工智慧有兩個主要問題讓馬斯克和霍金等人擔憂。離我們較近的一個問題是,我們正在創造一些能像人類一樣做決定的機器人,但這些機器沒有道德觀念,而且很可能永遠也不會有。

第二個問題離我們較遠。那就是,一旦我們創造出和人一樣智慧的系統,這些智慧機器將能夠建造更智慧的機器,後者通常被稱為超級智慧。專家們說,到那時,事情真的會迅速失控,因為機器的增長和膨脹速度將是迅猛的。我們不可能在自己尚未建立的系統中設定防護措施。

“我們人類掌控未來不是因為我們是地球上最強壯或最快的生物,而是因為我們是最智慧的,”《我們的終極發明:人工智慧和人類時代的終結》(Our Final Invention: Artificial Intelligence and the End of the Human Era)的作者詹姆斯·巴拉(James Barrat)說,“所以當這個星球上有比我們更智慧的東西時,它將統治地球。”

更難理解的是,我們並不確切知道超級智慧機器的外形或行為方式。“潛水艇會游泳嗎?會,但它的游泳方式跟魚不同,”巴拉說,“飛機會飛嗎?會,但它的飛行方式跟鳥不同。人工智慧不會跟我們一模一樣,但它將是我們的終極智慧版本。”

也許最可怕的是這些技術將會如何被軍隊利用。不難想像那些正在進行軍備競賽的國家會製造能殺人的機器。

邦妮·多徹蒂(Bonnie Docherty)是哈佛大學的法律講師,也是人權觀察組織的高階研究員。她說,人工智慧自主武器的軍備競賽正在進行,這讓人想起了核武器競賽的初期;在這些機器人上戰場殺人之前,我們必須先訂好條約。

“如果現在不制止這種技術,它將會導致軍備競賽,”多徹蒂說。她寫過幾個報告,講述殺手機器人的危險。“如果一個國家在開發它,那另一個國家也會開發。這些致命的機器缺乏道德觀念,不應該被賦予殺人權力。”

那麼我們如何保證所有這些世界末日的情形不會成為現實?在某些情況下,我們很可能無法阻止它們。

但是在谷歌的領導下,我們能阻止某些可能出現的混亂。今年年初,這個搜尋引擎巨頭收購了DeepMind公司,後者是倫敦的一家以神經系統科學為基礎的人工智慧公司。這兩家公司建立了一個人工智慧安全倫理委員會,旨在保證這些技術安全發展。

DeepMind的創始人、執行長傑米斯·哈薩比斯(Demis Hassabis)在一次視訊採訪中說,所有開發人工智慧的機構,包括政府和公司,都應該這樣做。“他們一定要考慮自己的所作所為會帶來的倫理後果,”哈薩比斯說,“而且一定要早早考慮。”

摘自: 紐約時報