自從20年前深藍(Deep Blue)在國際象棋中擊敗卡斯帕羅夫(Garry Kasparov),該事件就被人們譽為機器智慧最權威的證明。谷歌的AlphaGo已經在圍棋比賽中以四勝一負(譯者注:原文是三場中獲勝兩局)贏得了韓國棋手李世石,更表明了這些年來人工智慧的迅猛進步。機器終會比人類更聰明的預言即將到來,但我們似乎並沒有真正理解這個具有劃時代意義的事件的影響。

  事實上,我們執著於對人工智慧的一些嚴重的、甚至是危險的誤解。去年年底,SpaceX公司的聯合創始人伊隆·馬斯克(Elon Musk)警告說,人工智慧會統治世界。此話一出,引發了對人工智慧或譴責或支援的激烈爭論。對於這樣一個重大的未來事件,關於它是否會發生,或是以何種形式發生,各方持巨大的分歧。而當我們考慮到人工智慧會帶來巨大的利益的同時,也可能出現風險,這一點尤其令人擔憂。不同於其他任何的人類發明,人工智慧具有重塑人類的潛力,但它也可能摧毀我們。

  很難知道該相信什麼。但藉助於計算科學家,神經科學家,和人工智慧理論家的創舉,我們可以逐漸瞭解關於人工智慧更清晰的圖景。下面是關於人工智慧最常見的誤解和虛傳。

  ◆ ◆ ◆

  誤解一:“我們永遠不會創造出類似人類智慧的人工智慧。”

  現實:我們已經在一些遊戲領域,如象棋與圍棋、股市交易和談話等創造出可以與人類智慧匹敵、甚至超過人類的計算機。而背後驅動的計算機和演算法只會越來越好;因此,計算機趕超其他人類活動,將只是個時間問題。

  紐約大學的心理學家加里·馬庫斯(Gary Marcus)說,在人工智慧領域工作的“幾乎每個人”都認為,機器將最終會替代我們自己。支持者和懷疑論者之間的唯一真正的區別只是時間框架問題。像Ray Kurzweil等未來學家認為機器替代人類可能會在幾十年發生,也有人說,它可能需要幾個世紀。

  當懷疑論者說這是一個無法解決的技術問題,或是生物大腦有一些內在的獨特之處時,是不能令人信服的。我們的大腦是生物機器,但歸根到底它們仍然是機器;他們在現實世界中存在,按照物理學的基本規律執行。沒有什麼是不可知的。

  ◆ ◆ ◆

  誤解二:“人工智慧將有自覺意識”

  現實:關於機器智慧的一個共同的假設是,它是自覺的有意識的,也就是說,它會像人類一樣思考。更重要的是,像微軟聯合創始人保羅·艾倫的批評者認為,我們還沒有實現人工普遍智慧(Artificial General Intelligence, AGI),即能夠執行任何一項人類能夠進行的智慧任務,因為我們缺乏關於意識的完整科學理論知識體系。但倫敦帝國大學認知機器人專家默裡·沙納漢(Murray Shanahan)指出,我們應該避免混淆這兩個概念。

  意識無疑是一個有趣和重要的主題,但我不相信意識是匹敵人類水平的人工智慧必要的部分,”他告訴Gizmodo。 “或者,更準確地說,我們用意識這個詞,是為了表明一些心理和認知的屬性,而這在人類中是緊密相連互有重合的”。

  我們完全可以想像一個非常聰明的機器,缺乏一個或多個這種屬性。最後,我們可以建立一個非常聰明的,但沒有自我意識的,不能主觀或有意識地體驗世界的人工智慧。沙納漢說,將智慧和意識同時融合在一臺機器裡也是有可能的,但是,我們不應該忽視這樣一個事實,即智慧和意識是兩個不同的概念。

  只是因為一臺機器通過圖靈測試從而證實計算機和人類在智慧上無區別,並不意味著它是有意識的。對我們來說,先進的人工智慧可能會導致機器看起來是意識的假象,但是在自我自覺方面,它並不比一塊岩石或計算器更能感知自我意識。

  ◆ ◆ ◆

  誤解三:”我們不應該害怕人工智慧。“

  事實:今年一月,facebook創始人Mark Zuckerberg說我們不應害怕人工智慧,他說這將會為世界創造很多令人驚異的好東西。他只對了一半。我們安然享受人工智慧所能創造的巨大的好處:從無人駕駛汽車到新藥的製造,然而我們卻無法保證所有通過人工智慧所實現的將會是良性的。

  一個高度智慧的系統也許能瞭解完成一個特定任務所需要的所有知識,例如解決一個讓人頭痛的財務問題,或者侵入一個敵人的系統。但除開這些它所專長的特定的領域外,它很可能非常無知和愚昧。Google的DeepMind系統精通於圍棋,然而除了圍棋,它對於其他領域卻沒有任何推理和邏輯能力。

  許多類似的系統也可能缺乏深入的安全考慮。一個很好的例子就是由美國和以色列軍方共同開發的一份非常強大而複雜的武器級病毒系統Stuxnet Virus,其原本的作用是為了潛入和攻擊伊朗核武器動力裝置。此病毒系統卻不慎(至於是有人故意而為之還是純屬意外則不得而知)感染了俄羅斯核武器動力裝置。

  攻擊網路間諜的Flame病毒

  類似的例子還有在中東用於攻擊網路間諜的程式:Flame。可以想象,未來類似Stuxnet或者Flame這樣的系統如若廣泛散佈,可能對一些含有有敏感資訊的基礎設施產生一系列不可估量的破壞。(作者注:在此澄清,這些病毒並非人工智慧,但在將來他們可以輕易加入人工智慧,因此也將會帶來以上的一些顧慮。)

  ◆ ◆ ◆

  誤解四:“人工智慧由於其極高智慧,將不會犯任何錯誤。”

  電影《The Invisible Boy》中的超級計算機

  事實:Surfing Samurai機器人人工智慧研究者和開發者,Richard Loosemore認為大多數假設的人工智慧將毀滅世界的情景都非常不符合邏輯。大多數類似的假設總是認為人工智慧將會說:“我知道毀滅人類文明是由於設計引起的故障,但無論如何我還是很想去做。”Loosemore指出如果人工智慧在打算毀滅人類時,其思路是如此自相矛盾的話,它將在其一生中面臨無數自相矛盾的邏輯推理,也因此會干擾了其認知從而變得非常愚蠢,而同時根本不足以對我們造成傷害。他同時也斷言,那些認為“人工智慧只會做程式設定的任務”的人,將會像在電腦剛剛發明時那些說電腦將永遠不會具備應變能力的謬論的人一樣。

  牛津大學人類未來研究所(Future of Humanity Institute)的Peter Mcintyre和Stuart Armstrong對此有不同看法。他們認為人工智慧將很大程度上依賴其程式鎖定。他們不相信人工智慧不會犯錯誤,或者反過來他們沒有聰明到可以理解我們希望他們能做什麼。

  McIntyre告訴作者:“從定義上講,人工智慧就是一個在方方面面都比最聰明的人腦要更為聰明的智慧載體”。“它將會完全知道我們設計他們來做什麼”。McIntyre和Armstrong相信人工智慧將只會做其程式編寫的任務,但如果它足夠聰明的話,它會最終理解法律的精髓和人文的意義。

  McIntyre將人類將來可能面臨的困境和老鼠所面臨的困境做了比較。老鼠將會不停尋求食物和住所,但它們的目標跟人類不想與老鼠共棲一室的目標始終是相互衝突的。他說“正如我們完全能理解老鼠為什麼要鑽進我們的屋子裡、但仍然不能忍受與老鼠一起生活一樣,即使人工智慧系統理解我們的目標和我們想要什麼,他們仍然會覺得我們的目標無關緊要”。

  ◆ ◆ ◆

  誤解五:“一個簡單的修補程式將解決人工智慧的控制問題。”

  正如電影《機械姬》所描述,比我們聰明的機器人並不是那麼簡單就能控制的

  現實:假設我們創造出強於人類的人工智慧,我們將要面對一個嚴重的“控制問題”。未來主義者和人工智慧理論家完全不知如何限制和制約一個ASI(超強人工智慧),一旦它被創造出來,也不知道如何保證它將對人類友好。最近,佐治亞理工的研究人員天真地認為人工智慧可以通過閱讀簡單的故事和社會習俗來學習人類價值觀。而問題很可能會遠遠比這複雜。

  “人們已經提出很多簡單的技巧來解決整個人工智慧的控制問題,”阿姆斯特朗說。具體例子包括將ASI程式編輯成讓它希望取悅人類,或者僅僅作為人類的工具。換個角度說,我們可以整合一個概念,比如愛和尊重,把這些寫入它的原始碼。並且為了防止它採用超簡單的、單色的觀點來認識世界,它可以被程式設計來欣賞知識、文化和社會多樣性。

  Isaac Asimov的“機器人控制三定律”只能是科幻元素,要解決人工智慧控制問題,我們不能只靠理論或幻想。

  但是,這些解決方案要麼太簡單,(比如嘗試將人類喜好的整個的複雜性用精巧的語言來定義),要麼包羅人類所有的複雜到簡單的單詞、片語或思想。舉個例子來說,試圖給出一個連貫的、可操作的定義“尊重”一次,是非常困難的。

  “這並不是說,這種簡單的技巧是無用的,許多此類建議揭示了好的研究途徑,而且有助於解決最終的問題,”阿姆斯特朗說。 “但是,在沒有大量工作來發展和探索這些技巧之前,我們不能完全信賴它們。”

  ◆ ◆ ◆

  誤解六:”我們將被超人工智慧毀滅。”

  現實:現在還沒有證據保證人工智慧會毀滅我們,或者我們將來一定沒有辦法來控制它。正如人工智慧理論家Eliezer Yudkowsky所說:“人工智慧不恨你,也不愛你,但你是由可以用做別的東西的原子組成的”。

  他的書《超級智慧》中寫道:路徑,危險,策略,牛津大學哲學家Nick Bostrom寫道,真正的超級智慧人工一旦實現,可能會造成比以往人類任何發明更大的風險。著名思想家Elon Musk,比爾·蓋茨和斯蒂芬·霍金(霍金警告說,人工智慧可能是我們“歷史上最嚴重的錯誤”)也同樣警告這一點。

  Mclntyre說,對於超級人工智慧可以實現的大多數目標,有很好的理由讓人類退出這些過程。

  “一個人工智慧或許能夠非常準確地預測,我們不希望犧牲消費者、環境和非人類動物的利益為代價,來給某個公司帶來最大化的利潤,”McIntyre說。 “因此,它會有強烈的動機以確保自己不被中斷或干擾,包括被關閉,或其目標被改變,因為這樣這些目標將無法實現。”

  除非ASI的目標精確地反映我們自己的目標,McIntyre表示,它將有很好的理由不讓我們停止它的操作。並且由於它的智力水平大大超過了我們自己的,我們並不能做些什麼(來阻止它)。

  但萬事無絕對,也沒有人可以肯定人工智慧會採取何種形式,以及它如何可能危及人類。Musk指出,人工智慧實際上可以用於控制、調節和監控其他人工智慧。或者,它可能被灌輸人類價值,以及強制要求友好對待人類。

  ◆ ◆ ◆

  誤解七:“超人工智慧會很友好。”

  現實:哲學家Immanuel Kant相信智慧與道德密切相關。神經學家David Chalmers也在他自己的論文“The Singularity: A Philosophical Analysis(奇點:從哲學角度分析)”中採用了Kant這一著名的觀點,並將其用在瞭解釋超人工智慧的崛起之中。

  如果這是正確的,那我們可以預測“智慧爆炸”將會同時引發一場“道德爆炸”。我們還可以預測由此產生的超人工智慧系統將會在超智慧的同時也是超道德的,因此我們大概可以推測這是良性的。

  但是認為先進的人工智慧會是開明並且天生就好的觀點是站不住腳的。正如Armstrong所指出的,有許多戰犯都是很聰明的。智力與道德之間的聯絡好像並不存在於人類身上,因此他對這一聯絡存在於其他智慧形式的假設提出了質疑。

  他說:“行為不道德的聰明人可能會給他愚蠢的同胞們帶來更大規模的傷害。智力恰好賦予了他們更聰明地做壞事的能力,而並不會使他們變好。”

  正如McIntyre所解釋的,一個代理達成目標的能力並不取決於這個目標一開始是否聰明。他說:“如果我們的人工智慧具有獨一無二的在變聰明的同時會變得更加道德的能力,那我們是非常幸運的。但是,單純依靠運氣面對某些可能會決定我們未來的東西,並不是很好的策略。”

  ◆ ◆ ◆

  誤解八:“來自人工智慧的危險和機器人是一回事。”

  現實:這是一個特別常見的錯誤,一個被不加批判的媒體和《終結者》這類好萊塢電影延續的錯誤。

  如果像天網(Skynet)那樣的超級人工智慧真的想毀滅人類,它不會使用揮舞機關槍的機器人。它會使用更有效的手段,比如:釋放生物瘟疫,或發動基於奈米技術的灰蠱災難。或者,它可以直接破壞掉大氣層。人工智慧是潛在的危險,並不因為它意味著機器人的未來,而是它將如何對世界展現它的存在。

  ◆ ◆ ◆

  誤解九:“科幻小說是對未來人工智慧的精神描述。”

  人類思想如此豐富,所以各種科幻中的人工智慧也是多種多樣的

  現實:當然,很多年以來作家和未來學家都利用科幻來作夢幻般的預言,而是由ASI帶來的視界是一個不同顏色的馬。更重要的是,人工智慧是非常“不人道的”,因此我們很難了解和預測其準確性質和形式。

  要想讓科幻來娛樂弱小而可憐的人類,我們需要將“人工智慧”描述成類似我們自己。“人類的思想也是千差萬別的;即使在人類內部,你可能和你的鄰居完全不同,而這種差別和所有可能存在的頭腦相比是微不足道的。“麥金太爾(McIntyre)說。

  大多數科幻是為了講述一個引人入勝的故事,並不需要在科學上準確無誤。因此,在科幻中即使是對等的實體之間也往往存在衝突。 “想象一下,的是,”阿姆斯特朗說,“如果人工智慧沒有意識、喜悅、愛恨,根除了一切人類的痕跡,以實現一個無趣的目標,那將是一個多麼無聊的故事。”

  ◆ ◆ ◆

  誤解十:“人工智慧將接手我們所有的工作,這太可怕了。”

  現實:人工智慧自動完成人類工作的能力與它摧毀人類的潛能是兩回事。但《機器人的崛起》一書的作者馬丁 · 福特卻認為:技術的進步和未來的失業往往是密不可分的。思考人工智慧在未來可能扮演的角色無可厚非,但是我們更應該關注的是後面幾十年的問題。人工智慧主要完成的還是大規模自動化的工作。

  毫無疑問,人工智慧將徹底接管包括從工廠做工到上層的白領工作在內的許多現有的工作崗位。有專家預測,在美國有一半的工作崗位可能在不久的將來實現自動化。

  但這並不意味著我們不能適應這種鉅變。通過人工智慧將自己從紛雜的體力和腦力勞動中解放出來,不也是人類的美好願景嗎?

  “在接下來的幾十年中,人工智慧會摧毀許多工作,但是這是一件好事,”米勒告訴Gizmodo。例如,自動駕駛汽車可以取代卡車司機,這將減少運輸成本,從而降低它的商品購買價格。 “如果你是一名卡車司機,那你可能輸了,但其他人會得到有效加薪,他們的薪水可以買更多的東西,”米勒說。 “而這些人將錢節省下來可以購買其他商品和服務,因而會創造新的工作。”

  所以最終的結果可能是,人工智慧會產生創造財富的新途徑,而人類可以騰出來做其他事情。而在人工智慧的進步將帶動其他領域,尤其是製造業的發展。在未來,滿足人類需求會變得更加容易,而不是更難。

  翻譯:丁一,孫強,王婧,肥毛毛蟲,Mona,焦劍,汪霞

  來自:大資料文摘