人類和強人工智慧的關係(人類會被滅掉嗎?)

squirrel_sc發表於2015-04-29

版本:0.1

 

這篇文章不是為了給出答案(也給不出答案)或者猜想,而是希望總結一下各種影響因素。隨著技術水平和認知的發展,人們會做出更準確的預測。從主觀上,我更願意相信強人工智慧不會滅掉人類,這樣我就可以心安理得的繼續研究了。:)

首先,這裡說的是“消滅”人類,不是和人的個體衝突,而是對整個人類的威脅。這是一個很大的問題,除了需要研究各種因素之外,還需要對整個過程進行研究。也許最終強人工智慧會和人類很好的相處,但中間的某個階段就把人類消滅了。

從研究未來的角度來看,科幻小說和電影是走到前面的,給我們提供了巨大的想象空間。在下面的推理和分析中也很容易找到類似場景和觀點的科幻作品。比如,《三體》對動機和能力方面都涉及了(看起來低效的生物體才是戰爭的根源,強人工智慧只是工具)。《終結者》系列,基本沒涉及到動機,比較強調人類的能力(除了運氣,實在沒看出來人怎麼贏)。還有《超驗黑客》和《機器紀元》(不喜歡劇透的直接跳到下一段)從動機方面講為什麼強人工智慧不消滅人類。比如:從人類上傳的人工智慧還是為人類考慮的、強人工智慧不屑於消滅人類。

強人工智慧是否會消滅人類的問題,要從動機和能力兩方面來討論。動機是強人工智慧為什麼要消滅人類。能力是強人工智慧是否具備消滅人類的能力。估計大部分人都相信,最終強人工智慧的能力會超過人類,有消滅人類的能力,所以下文也主要從動機方面來討論。

 

特異功能

這一段是從強人工智慧的能力來分析的。所謂特異功能,是人類沒有的能力。假設強人工智慧生存於非生物體中,如網際網路、實體機器人、或者電子生物混合體,就能夠跨域生物體的限制。比如高速的通訊(人的語言通訊速度大概也就10位元組每秒),高能源儲備(人一天吃好幾頓飯,幾天不吃就不能動了),複製、修復成本低(人不能複製,治病成本高),極端條件下生存能力強(人類需要空氣,對氣壓,溫度適應範圍都小),更廣的通訊頻率(人只能響應聽力的機械,視力範圍的電磁頻率),進化快(人類需要數萬年以上才能有顯著的變化)等等。看上去是不是人類從配置上就完敗了?也沒那麼慘,人類也有自己的優勢,至少現在人類的意識還是黑盒的(雖然也有被黑、被洗腦的情況)、人口基數巨大、不會被強電磁輻射直接消滅等。

 

智慧水平

這裡說的智力水平是綜合水平,不考慮某一方面的強弱。

如果強人工智慧的智力水平相當於普通動物,且人類和強人工智慧之間存在直接的資源衝突,如空間、能源等,則有可能直接產生衝突。這種情況下其對人類的衝擊,取決於強人工智慧是否具有獨立的複製能力或者很強的生存能力。

如果強人工智慧的智力水平相當於人類,則可以將其考慮為獨立的人。如果和人類有資源衝突,也許會採用比較溫和的方式進行交換或爭奪。但如果其成為了極端分子,對人類的衝擊會更大。

如果強人工智慧的智力高於人類,我們可能已經無法預測其行為和傾向了。因為他的智力高於人類,對世界的認識、能力最終都會高於人類,我們無法預測其是否會產生消滅人類的意願。

 

除了智力水平,還可從另一個方向來看。即強人工智慧是否有自我意識,是否受人類控制。

假設強人工智慧雖然能夠解決很多問題了,但並沒有自我意識,其仍然是人類所控制的。所以,通過阿西莫夫的機器人三定律,就能避免其傷害人類。但這個的前提是人們願意將機器人三定律設定進強人工智慧。考慮到現今社會的恐怖主義勢力不可忽視,也許會有人制造出專門攻擊人的強人工智慧。這和其它武器類似,但考慮到強人工智慧的特異功能等,其破壞性是遠遠大於普通武器的。

如果強人工智慧擁有了獨立的自我意識和價值觀,問題就會更復雜了。

 

數量

一個、多個還是大量?也許這不是一個好問題。從人類的角度來看,數量非常清楚,一個人就是一個人,不會有異議。但強人工智慧由於其連通性非常強,形態自由,也許無法數清某個範圍內到底有幾個強人工智慧。為了討論的方便,假設數量是能夠確定的。

假設只有一個強人工智慧的實體。這個假設是因為要麼其資源消耗相當大,只能造出一個;要麼是因為其連通性強,最終所有強人工智慧都會合成一個。所以,其對資源的整合能力會讓其能力非常強。且作為一個實體,可認為其能做出唯一決定。若它不考慮人類的安全,則可能會產生很大的威脅。

假設有多個強人工智慧,它們間有對立的情況,且較平衡。那人類也可以與其產生比較穩定的關係。假設有非常大量的強人工智慧,可能就和現在的人類社會沒有什麼分別了,每個強人工智慧對於整個智慧社會的影響也會變得有限。也可以和人類產生比較穩定的關係。這裡的穩定關係不一定是對人類有利的關係,也許是人類控制強人工智慧,也許是其對人類的奴役……

 

能耗水平

《奇點》是一本不錯的書,探討了理論上的資訊和物質之間的比例,認為每個粒子極限上可以表達1bit的資訊。從另一個方面,人類大腦的結構來看。大腦大概有120億個灰質神經元細胞,每個細胞約有數百到數萬個連結。這還不包括數倍於這個數量的支援其的其它神經細胞。由於現在的計算架構和指令集不是按照神經元這樣大規模平行計算所設計的,所以每一步神經元操作都需要數百步計算。以現在的計算水平來看,一個人腦需要數十萬甚至百萬臺普通計算機來模擬。這裡還沒有考慮這麼多計算機之間的通訊的問題和其它難題。

考慮到人腦的效率並不一定高,且很大一部分用來解決輸入輸出。隨著計算水平和演算法的提高,其能耗會逐漸降低。所以,實際需要的計算資源會逐步減少。這裡說的計算資源也建立在其它種類的資源上,比如能源、空間、礦產,都是計算資源的原材料。在這個發展過程中,強人工智慧如果想要提高自己的智慧水平,必然要想辦法獲取更多的計算資源,從而與人類產生計算資源的爭奪。如果有若干個強人工智慧存在,它們之間也許會產生爭奪。最終也許強人工智慧能夠利用整個宇宙的物質和能量,從而不屑於在地球與人類爭奪。但在強人工智慧能夠發掘出更多的計算資源之前,人類可能已經被消滅了。

從保守的預測來看,如果人類不能跨越計算和能源的一些限制,也許強人工智慧的能力就會一直受限,從而始終不能構成威脅。

 

智慧來源

初期的強人工智慧應該是從無到有培養出來的,其雖然有人類認知的印記,但也有其自我發展出來的東西。最終,人類可能能夠將自己的智慧上傳到強人工智慧的載體中。無論它是不是人的意識,它可能還是會認為自己屬於人類的一部分。假設它的邏輯思維基本不發生變化,其選擇可能更像人類。在大部分情況下,不會對人類產生威脅。如果強人工智慧還有機會被下載到生物體裡,和人類的關係可能會更加融洽。所以,強人工智慧和人類的關係也可能受智慧來源的影響。

 

人類願意和其他高等智慧建立什麼樣的關係

這裡的其他高等智慧也包括外星人,但這裡只討論強人工智慧。人類作為強資源依賴型的物種(不能休眠、繁衍慢、慾望強),天生就對資源有不安全感,這可能也是人類大部分爭鬥的原因。而且人類作為地球生態系統的長期霸主,也有很強的獨佔的慣性。也許強人工智慧和人類的爭鬥也是人類挑起的,強人工智慧只是反擊。從而人類的不安全感也傳給了其它高等智慧。

在強人工智慧的能力近似於或超過人時,人類能否最終尊重並接受這個現實,很大程度上也決定了人類的命運。

這裡不得不將機器人三定律作為反例舉出,其本身的出現也沒有把強人工智慧放到和人等價的位置上。不過這個問題本身也很複雜,強人工智慧是人類一手創造出來的,而目的是為人類服務的。但最終的結果是人類可能不得不出讓資源給強人工智慧,且任其自由發展。

 

 

綜上所述,已經有很多變數可以影響強人工智慧和人類的關係了,我相信還有很多因素沒有列出來。在強人工智慧沒有產生之前,每個因素,及其發展過程都不能被忽略。由於人類的好奇等各方面原因,即使人工智慧對人類有巨大的威脅,還是會努力的將它實現出來。這對於人類本身來說,不一定是有利的,但從宇宙的發展來看,人類可能只是逆熵程式中的一步。其也是偉大的一步,從碳基智慧到矽基智慧,再到量子智慧。這是智慧不斷的超越自己的認知,不斷的理解自己的生存空間的過程。再後面會發生什麼,就不是我等碳基生命能夠預測的了……

相關文章