技術奇點或許永遠不會臨近

PSI內容合夥人發表於2016-03-05
引言

如今,對人工智慧 (AI) 感到悲觀或樂觀的都大有人在。樂觀者正在向人工智慧領域投資數百萬美元甚至數十億美元,而悲觀者則預測人工智慧將終結很多事:工作,社會福利,甚至人類。無論是樂觀主義者還是悲觀主義者都被所謂技術奇點 (technological ingularity) 的概念吸引。技術奇點是一個機器智慧失控的時間點,在它之後一個全新的、更加智慧的「物種」將開始居住在地球上。如果樂觀主義者是正確的,那麼這將是一個從根本上改變人經濟和社會的時刻。如果悲觀主義者是正確的,那麼這將同樣是一個從根本上改變人類經濟和社會的時刻。因此,我們有必要花些時間決定這些看法是否正確。

技術奇點的歷史

許多不同的思想家都構思過關於技術奇點的理念。在約翰·馮·諾伊曼 (譯者注: John von Neumann, 20世紀最重要的數學家之一,在現代計算機、博弈論等領域均有建樹) 1957年去世時,斯塔尼斯拉夫·烏拉姆 (譯者注: Stanislaw Ulam,波蘭數學家) 寫道:

「我與約翰·馮·諾伊曼討論過在技術不斷加速發展、人類生活模式的改變下,我們看上去正在接近物種史上某個重要的奇點,在它之後已知的生活將無法延續。」 在1965年,I.J. 古德 (譯者注: I.J. Good,英裔數學家、密碼學家) 對這個現象提出了更具體的預測,他用「智慧爆炸」(Intelligence Explosion) 取代了「奇點」 (Singularity) 的概念:「讓我們把超智慧機器定義成為一臺能夠遠遠超過任何人類智力活動的機器。 因為設計機器本身也算是智力活動,所以超智慧機器可以設計出更好的機器;毫無疑問,這將會帶來智力的爆炸式增長,而人類的智力將遠遠落後。以此類推,超智慧機器將會是人類最後一個發明。」 許多人把 「技術奇點」歸功於電腦科學家。科幻小說家弗諾·文奇 (Vernor Vinge) 更是預言:「在三十年內,我們將創造出實現超人智慧的技術。不久後,人類的時代將結束。」

近來,技術奇點的概念又得到了包括雷·庫茲韋爾 (譯者注: Ray Kurzweil ,發明家、企業家、學者、《奇點臨近》等暢銷書作者) 在內許多人的推廣。根據目前的趨勢,庫茲韋爾預計技術奇點會發生在2045年左右。就這篇文章的定義而言,我假設技術奇點是一個「當我們創造出擁有足夠智慧、能通過重新設計自己來改進智力的機器」的時間點,並且在這個點上我們將見證智力以指數級增長,並且迅速超越人類。

我將用兩個數學論證來為以上觀點辯護。其中一個論證是:技術奇點不是數學奇點。在函式1/(1-t)中,數學奇點是t=1。該函式演示了雙曲增長。當t接近1,t的導數趨於正無窮並且無法被定義。然而,許多技術奇點的擁躉只支援指數增長的說法。例如,函式2^t呈指數增長。這樣的指數函式在接近正無窮時更慢,並且有一個可以被定義的有限導數。其二個論證是:智力的指數增長完全取決於測量智力的數值範圍。如果我們以對數分度向量(logspace)測量智力,指數增長僅僅是線性的。在這裡,我暫時不解釋測量機器或者人類智力的具體定義或方法。我只假設有一個可以被測量、比較的特質叫做智力,並且當智力在適當、合理的數值範圍內呈指數增長時,我們將迎來技術奇點。目前,技術奇點的可能性已經迫使幾名評論家發出關於人工智慧對人類影響的悲觀預言。例如,在2014年12月時,史蒂芬霍金對BBC電視臺說:

「人工智慧的全面發展可能意味著人類的終結……機器將獲得自主權,並且以前所未有的速度重新設計自己。被緩慢生物進化限制的人類將無法競爭並且最終被取代。」

其他的知名人物,包括比爾·蓋茨,伊隆·馬斯克和史蒂夫·沃茲尼亞克也隨後發表了類似的警告。尼克·博斯特羅姆 (譯者注: Nick Bostrom ,牛津大學人類未來研究院院長、哲學教授、著名人工智慧學者) 也做出了對技術奇點的預言,並且認為這個現象將對人類的生存造成威脅。然而這篇文章與以上的觀點相反,我將探討的觀點是:技術奇點或許永遠不會臨近。

反對技術奇點的論點

對技術奇點的爭論多數發生在主流人工智慧行業以外。在某種程度上,這個概念的許多擁躉都不是真正的從業者。在主流文化中,技術奇點也和一些例如壽命延長和後人類主義等挑戰現狀的想法關係密切。這種聯絡干涉我們探討真正重要的基礎問題:人類真的可以開發出能夠成倍提高自己智力並且遠遠超出人類的機器嗎?雖然它看上去並不是一個特別大膽的想法。計算機領域已經在指數增長的同時不斷壯大。摩爾定律 (Moore’s Law) 以合理的精準預測告訴我們,電晶體上積體電路的數量(指每塊晶片的儲存量)將在1975年之後每兩年內翻倍。庫梅定律 (Koomey’s Law) 也已預測,單個能量焦耳所支援的計算次數將在1950年後的每19個月內翻倍。以此類推,為什麼不能假設人工智慧也會在某個時間段內實現指數增長呢? 針對技術奇點實現的可能性,以上的說法是一些有力的論據。準確地說,我並不是在預估人工智慧無法擁有超出人類的智慧。與許多在人工智慧行業工作的同事一樣,我預測人類離這個階段還有30到40年的時間。不過與一些人的觀點相反,我認為未來將不會出現失控、呈指數增長的情形。我將在接下來的文章裡提供多個關於不可能有技術奇點出現的支援論點。 以下的討論不包括所有技術奇點的反對論點。舉例來說,我們也可以假設人工智慧創造出了自己的人工智慧。因此,阿蘭·圖靈 (Alan Turing) 在其影響深遠的Mind論文( Turing 1963)中提出了針對人工智慧的九種通俗反對意見,例如機器不能擁有意識,或者不具有創造性。在這裡,我將集中精力討論人工智慧在智力上失控增長的可能性。論點一:快速思維的狗 (Fast Thinking Dog)其中一個由技術奇點支持者提出的先鋒觀點是:矽與人類大腦溼件(wetware)相比有重要的速度優勢,並且根據摩爾定律這一優勢每隔兩年都會翻倍。不過,速度提高不代表智力增長。在這個問題上,弗諾·文奇認為一條快速思維的狗仍然不可能懂得下棋。史蒂芬·平克 (Steven Pinker) 意味深長地表示:

「我們沒有任何理由相信技術奇點。人可以在自己腦海中想象未來,但不能證明它是否具有實現的可能性。在我的孩童時代,人們想象過的半球形城市,噴氣交通運輸工具,水下城市,一英里高的建築,核動力汽車,以及很多未來式的幻想在今天從來沒有得以實現。最終,單純的想象力無法像魔法一樣奇蹟般地解決所有問題。」

智力不僅是比別人對一個問題思考更快或是更久。當然,摩爾定律對人工智慧的發展有幫助。現在計算機擁有更多可供學習的資料庫。速度更快的計算機肯定會幫助我們開發更好的人工智慧。但是,至少對於人類來說,對智力的評估取決於許多其他的事情,其中包括日經月久的經驗和訓練。我不確定人類是否可以利用矽,走上提高智力的捷徑。論點二:人類中心主義 (Anthropocentric)在許多對技術奇點的描述中,人類智力被假設成為一個需要跨越或顛覆的里程碑。例如,尼克·博斯倫特寫道:

「擁有人類智力水平的人工智慧的問世將會迅速帶來通向高於人類水平人工智慧的發展……與此同時,機器與人類在智力上的匹配將是暫時的。此後不久,人類將無法與人工智力競爭。」

人類智力範圍是從蟑螂到老鼠再到人類的分佈廣泛的範圍。事實上,與其說智力是一個點,不如說它是一系列概率的分佈。我們並不確定人類將在具體哪一個點上被人工智慧失控的智力增長超越:這個點具體是指人類的平均智力?還是人類史上最聰明的人? 科學史的教訓告訴我們,人類遠沒有自己想象的那麼特殊。哥白尼告訴我們,宇宙並不繞地球轉。達爾文告訴我們,我們與猿類沒有本質區別。人工智慧可能會告訴我們,人類的智力也並不特別。我們沒有理由因此假定,人類智力是個一旦通過,智力將快速增長的特殊臨界點。當然,這並不排除智力轉捩點本身存在的可能性。 技術奇點的支持者提供的說法之一是,我們是唯一能夠通過創造來擴充自己智力的物種,因此人類智力是一個特殊的臨界點。我們是地球上唯一擁有足夠智力設計新智慧的物種,並且這些被設計出來的新智慧不受程式緩慢的繁衍與進化限制。然而,這一類說法假定人類的智力可以設計出一個智力足以跨越技術奇點的人工智慧。換句話說,它在我們決定是否有技術奇點之前,就已經下定它確切存在的結論。人類可能,也同樣可能不會有足夠的智力設計出這樣的人工智慧。我們並不是被註定要創造出這樣的東西。再者說,即使我們有足夠的智力設計出了能夠超越人類的人工智慧,這樣的人工智慧也不一定能夠帶來技術奇點。論點三:元智力 (Meta-Intelligence)在我看來,反對技術奇點的其中一個強有力論點是,技術奇點混淆了完成工作的智力和提高完成工作的能力之間的區別。在對技術奇點的概念進行詳細分析後,大衛·查莫斯 (譯者注: David Chalmers,澳大利亞裔哲學家,認知科學家 )寫道:

「如果我們通過機器學習創造一個AI,不久之後我們將能夠改善學習的演算法並且延長學習的過程,創造出接下來的AI+。」

在以上的論述中,AI是人類智力水平的系統,而AI+是比一般人類更聰明的系統。不過,為什麼查莫斯認為我們可以在不久之後提高學習的演算法?歷來機器學習在演算法方面的進展既不迅速,也不容易。機器學習的確有可能成為未來任何人類智力級別的人工智慧系統的重要部分,因為除此之外,利用人工編碼知識和專長是很痛苦的過程。假設,一個人工智慧系統選擇採用機器學習來提高自己理解文字,完成數學證明的能力。該人工智慧的系統沒有理由能夠改善機器學習本身自帶的演算法。事實上,機器學習的演算法通常在某一項工作上已經達到極限,不論是工程還是引數的調整,都無法提高其效能。 目前,我們看到使用深度學習的人工智慧令人印象深刻的進度。這極大地提高了語音識別,計算機視覺,自然語言處理及許多其他領域的發展。這些進度通常歸功於使用更多資料以及更深層次的神經網路: 燕樂存(譯者注: Yann Lecun,紐約大學計算神經科學家)表示: 「在此之前,神經網路並沒有打破識別連續語音的記錄;因為它們的大小有限。」 當然,更多的資料和更大的神經網路意味著我們需要更強的機器處理能力。其結果是,GPU現在經常被用來提供處理能力。然而,學會更好地識別語音或者物品並沒有幫助深度學習進步。深度學習並沒有自我改善。對深度學習在演算法上的任何改善都要歸功於人類在設計上的不懈努力。 我們也可以從另一方面用我們所瞭解到的有關智慧系統的最好例子來例證這一論點。看看我們自己。我們只使用了我們自己大腦驚人能力中的一小部分,而且我們正努力地想要改變現狀。對我們來說,學習如何更好地完成某個特定任務很簡單,但學習如何更高效地學習還需要下點功夫。舉例來說,如果我們除去對智商固有的正常定義,我們可以察覺到智商在上個世紀內有增長,但增長速度緩慢 (弗林效應「Flynn Effect」)。在今天,提高智商的過程和一個世紀以前一樣痛苦並且緩慢。或許,電子大腦也很難快速提高自己的效能,並且永遠無法超越自身的基本功能?論點四:收益遞減 (Diminishing Return)技術奇點通常假設智力的改進是一個相對恆定的乘數,每一代的分數都比上一代更高。然而到目前為止,大部分人工智慧系統的效能一直在經歷收益遞減。在不同研究的初期,研究人員通常獲得許多成果,但在這之後則遇到一系列難以改進的困難。這個過程解釋了許多早期人工智慧的研究人員對行業發展過於樂觀的看法。人工智慧系統也許可以無限制地完善自己,但對智力的總體改進很可能存在上限。舉例來說,如果每一代人工智慧比上一代增強半倍,那麼系統永遠不會達到2倍的整體智力。 收益遞減不僅是由於改進人工智慧演算法的困難度,也是由於電腦科學快速增長的困難度。微軟的聯合創始人保羅·艾倫稱這一現象為 「複雜性剎車」(Complexity Brake)。

「我們把這個問題叫做複雜性剎車。伴隨人類對自然系統理解的不斷加深,我們通常會發現,我們需要更多並且更專業的知識來描述它們,我們不得不用越來越複雜的方式來持續擴充套件我們的科學理論… 我們相信,對自然世界 [認知上的] 理解正在被複雜性剎車放慢。」——Allen和Greaves,2011。

即使人類看到人工智慧系統持續、甚至呈指數級的改進,這些或許都無法提高機器的效能。智力提升所需要解決的問題本身的難度增長速度,甚至比智力提升的速度還要快。很多人表示,現階段理論物理學的探索似乎也遇到了同樣的複雜性剎車。論點五:智慧的極限 (Limits of Intelligence)宇宙中存在很多基本的限制。其中一些是物理限制。例如,我們無法加速超過光速。我們無法同時知道位置和動量的精確數值。我們無法知道原子放射性衰變具體發生的時間。我們創造出來的思維機器也受這些物理定律的限制。當然,如果機器在本質上是電子或者甚至是量子,這些限制很可能比人類大腦生物和化學的限制還要大得多。 更多可觀察的經驗法則也在複雜的系統中不斷湧現。例如,鄧巴數(Dunbar’s Number)是靈長類動物腦容量和社會平均大小之間所觀察到的聯絡數值。該數值把人類社會團體中關係穩定的人數限制在100到250人之間。智力是一個複雜的現象,並且也會有類似的限制出現在這種複雜度中。機器智力的改善,無論是失控還是緩慢地增長,都可能碰觸到這種限制。當然,我們沒有理由假設人類智力目前已經達到、或者接近這個上限。同樣來說,我們也沒有理由認為這個上限遠遠超過了人類的智力。論點六:計算複雜性 (Computational Complexity)假設我們堅持使用遵守傳統計算模型的電腦開發人工智慧系統。那麼,指數級增長也無法與計算的複雜度匹敵。舉例來說,計算機效能上的指數級增長不足以執行超級指數演算法。而且沒有任何效能上的增長可以解決無法解決的問題。計算的複雜性也許正是我們前面所討論到的基本限制之一。因此,除非我們使用的機器能夠超越傳統的計算模型,否則我們很可能會碰到類似於計算的複雜性從根本上限制了計算機效能的問題。當然,很多計算的複雜度問題只是最壞的情況,大部分的人工智慧都使用啟發式學習在實踐中解決計算上難以處理的問題。不過,這些啟發式學習在質量上有根本的限制。有一些級別的問題即使超人工智慧 (super-human intelligence) 也不能很好的解決,哪怕只是大致解決。

結論

在以上的文章中,我論述了關於人類也許永遠無法見證技術奇點的許多原因。然而,即使沒有技術奇點,我們也許仍然可以最終擁有展現出超出人類智力水平的機器。不過實現它需要很多人非常痛苦地編碼。如果是這樣的話,人工智慧對經濟和社會的影響,要比對技術奇點持有悲觀或樂觀態度的人所預測的結果平淡得多。然而,我們應該就人工智慧對社會的影響開始做準備。就算沒有技術奇點,人工智慧依舊會大面積影響工作的性質。舉第二個例子:即使智力有限的人工智慧依然可以對戰爭的性質產生很大的影響。現在,我們需要開始為這樣的未來做計劃。


 參考文獻:[Allen and Greaves 2011] Allen, P., and Greaves, M. 2011. The singularity isn’t near. MIT Technology Review 7–65. [Bostrom 2002] Bostrom, N. 2002. When machines outsmart humans. Futures 35(7):759–764. [Bostrom 2014] Bostrom, N. 2014. Superintelligence: Paths, Dangers, Strategies. Oxford, UK: Oxford Uniiversity Press. [Chalmers 2010] Chalmers, D. 2010. The singularity: A philosophical analysis. Journal of Consciousness Studies 17(9-10):7–65. [Edwards 2015] Edwards, C. 2015. Growing pains for deep learning. Commun. ACM 58(7):14–16. [Good 1965] Good, I. 1965. Speculations concerning the first ultraintelligent machine. Advances in Computers 6:31– 88. [Kurzweil 2006] Kurzweil, R. 2006. The Singularity Is Near: When Humans Transcend Biology. Penguin (NonClassics). [Pinker 2008] Pinker, S. 2008. Tech luminaries address singularity. IEEE Spectrum. [Turing 1963] Turing, A. 1963. Computing machinery and intelligence. In Computers and Thought. McGraw-Hill Book Company. [Ulam 1958] Ulam, S. 1958. Tribute to John von Neumann. Bulletin of the American Mathematical Society 64(3). [Vinge 1993] Vinge, V. 1993. The coming technological singularity: How to survive in the post-human era. In Rheingold, H., ed., Whole Earth Review.

本文為論文《The Singularity May Never Be Near》譯稿

相關文章