什麼阻礙了強人工智慧的發展

squirrel_sc發表於2015-05-08

版本:0.1

 

當今科學雖然非常發達了,但還是沒能很好的理解和解釋我們的世界。三個基本問題仍然困擾著我們:最小的是什麼,最大的是什麼和意識是什麼。所謂最小,即最小的物質是什麼。雖然我們證明了上帝粒子,快要證明各種粒子的統一和完備性了。但再往小了看呢,這些基本粒子又是什麼組成的?這一層一層分析下去,是否有盡頭?我們還要不斷的瞭解更小粒子、逼近真理。所謂最大,我們可視的宇宙之外是什麼?我們可視的宇宙之內,看不見的暗物質、暗能量是什麼?是否有我們的世界和其完全沒有作用力的黑物質和能量存在?最大和最小的問題也許是同一個問題。所謂意識,每個人都能感知到自己的存在。但意識和物質到底有沒有關係?它在哪裡?是否能創造、遷移和複製?對此,除了哲學家絞盡腦汁的思考之外,科學家對此基本也一無所知。研究意識的第一步,就是要研究人類智慧。從現在的理解來看,人類智慧有很大可能是意識的載體(軟體上的軟體?)。

當代人工智慧發展的時間和計算機的發展時間基本是一樣長的。現代的計算機和剛出現的計算機相比,效能上提高了不止百萬倍。人工智慧也是最近一些年才開始了大規模的應用。其解決問題所需要的計算、開發成本還是比較高的。但強人工智慧仍然還沒什麼眉目,最多就是能拼拼湊湊的能和人在某一方面比較,比如回答問題、下棋、端茶倒水之類的。這和人類做的事情的種類和學習能力是沒法比較的。到底是什麼阻礙了強人工智慧的發展呢?總結起來基本上是三個方面,強人工智慧的基本問題、計算規模的限制、現實利益驅動不夠。

 

  1. 基本問題

強人工智慧的一些問題還沒有得到解決。雖然有很多科學家從細胞,分子生物,心理,大腦活躍度成像等各個角度角度來研究大腦。但不得不說,大腦對我們來說仍然是黑盒的。我們對它的認識還非常粗淺,一方面對大腦的各個層次的功能也只是碎片式的理解,另一方面,從對碎片理解來看,也沒有推匯出產生智慧的系統是什麼樣的。

強人工智慧也可以算作是仿生學的範疇。從模仿的角度來看,有兩種研究和應用方法,一種是全盤複製的模仿;另一種是理解核心原理,然後做出從工程上來說更好的設計。比如仿人機器人的設計可認為是全盤複製,這個好處就是現有的功能都有,而且人易於接受。全盤複製需要對其結構非常瞭解,仿人機器人需要對人體骨骼、自由度方向進行深入的研究。再比如飛機,是從鳥類飛翔開始,理解了空氣動力學的核心原理,然後從機械上做出了更容易實現和維護的方案。理解核心原理需要更多的理論上的突破,通常都有新的學科產生。對於強人工智慧來說,這兩條路都不容易。結構上,神經元一方面是分子級別的反應,反應種類多、且蛋白質結構複雜。另一方面是上百億神經元組成的網路,取一小塊研究都是非常大的規模,且很難進行動態研究。從原理上,雖然單個細胞的行為有很多理論了, 但規模化以後為什麼就產生智慧了,還沒有理論能說清楚。 

下面也僅僅列出了從現在的研究來看,所能發現的基本問題。由於資訊量太大,知識之間交錯不清,對這些基本問題的分類也不盡合理。隨著這些問題的解決,估計還會出現新的基本問題。 

  • 基本組織結構

對於人類智慧,從神經元細胞的層面已經有了大量的研究,這些研究有些為醫學服務,還有些也是為了瞭解智慧。在細胞層面上,科學家從比較巨集觀的角度研究了神經元的樹突、軸突在資訊刺激下的生長和衰減。也研究了資訊如何從觸覺神經元一路傳遞到腦部的過程。微觀上還從分子、離子層面來研究傳遞資訊的原理,特別是突觸上資訊是如何在樹突、軸突直接傳遞,跨神經元的刺激如何才能激發成功。這些研究使我們理解了神經元的主要活動是整合、激發。神經元的樹突、軸突會在刺激下有變化,產生或者消除一些突觸,從而形成學習、記憶的效果。 

這個方向上的研究幫助理解了神經元的基本活動過程。人們已經能夠構建基礎的神經網路。但這樣的神經網路只能模擬很小規模的神經元網路。但這還不夠,別說人類的智力,連蟲子的智力都還沒到。神經元細胞本身是屬於比較大的細胞,其細胞體是否直接參與了神經活動,還是隻提供了物質和能量?記憶效果如何在細胞上累積?神經元細胞之間除了突觸傳遞外,還有什麼別的物質來協調它們的活動?哪些活動是和神經活動有關,哪些活動是和細胞的基本生存有關?由於對生物細胞本身活動過程的理解還不夠,這樣的問題還沒法回答。 

  • 巨集觀行為

從巨集觀上,科學家們也進行了大量的研究。通過對大腦活動的各種成像方法和醫學研究。對於人類大腦不同區域所負責的功能已經理解得比較清楚了,大腦不同位置上的結構的差異也有了理解。但這個層面上的研究粒度太粗了,基本上能把大腦分成上百塊就不錯了。這樣算下來,每塊平均有上億個神經元細胞。記得有人說,這種巨集觀上的研究相當於用紅外線攝像機從汽車外面研究車為什麼會開一樣,基本上是理解不了原理的。這方面研究的應用主要是在醫學和心理學上。 

依靠人腦來研究人腦,有時就像自己要把自己拎起來一樣,看似是不可能的任務。人、、的研究方式一般都是產生想法、然後邏輯推理。有句話叫做大膽猜想,小心求證。這基本上都要在大腦裡進行一些模擬和推導。如果要對神經網路的巨集觀行為在大腦中進行模擬,至少也要模擬上千個神經元。這不是用10個神經元模擬1個,估計是用1000甚至10000個模擬1個。而且人腦的絕大部分神經元已經固化了別的任務,不會參與這個模擬過程。所以人腦本身對自己規模化的模擬幾乎是不可能的,這個思考過程需要一些外部的幫助來完成。但想法的產生是迅速的,在快速驗證原型前,可能大腦就把有些想法拋棄了,可能經常就是幾個想法繞來繞去的,沒有進展。所以,對這樣的巨集觀問題的研究效率是很低的。這不像是對某些巨集觀情況,比如氣象、星系演變類的研究建模,這些問題的計算量大,但其公式數量較少,程式架構也相對容易理解。 

所以,雖然對巨集觀上大腦怎樣分工,和對微觀上單個神經元是如何工作的都有較多的瞭解,但沒有一個方法能將這兩者統一起來,實現一個完備的系統。考慮到這整個系統是從程式碼量不大的DNA中的一小部分產生的,這個系統就越發顯得神奇…… 

  • 模式的粒度

所謂模式,也可以稱為函式,即特定的輸入能產生有規律的輸出。神經網路和一般數學上函式的區別是,神經網路中有儲存的功能,所以每次輸入可能會影響下一次輸出。這不影響一個神經網路被稱為函式,但為了和一般函式的概念區分,下面還是稱之為模式。

人腦的整個神經網路可以稱為一個模式,心理學、大腦成像等方面的研究就是在研究其模式。但這個模式太複雜了,輸入輸出很多,作為一個整體只能進行巨集觀上的研究。每個神經元,也可以稱作一個模式,科學家們對其行為基本研究得不少了。但這個模式的功能又太簡單了,和單個的電晶體原件差不多,能夠解決的問題有限。 

現代很多神經網路和機器學習的演算法,能夠處理若干個神經元,這也可算做一個模式。對於這種模式,研究非常多,而且能夠解決很多實際問題了。但這類模式的結構非常簡單,一般是有清晰的層次關係,其輸入也需要嚴格的標準化。人腦中一般不是分層的結構。不分層結構的主要挑戰有, 

1)如何抑制整合、激發過程中的振盪。雖然有神經網路演算法是不分層的,但很容易發生訊號的振盪,環路等,不容易解決實際問題。 

2)如何有意義的建立、刪除神經元之間的連線。這裡的有意義除了是連線的調整能夠有助於解決問題,或簡化模型。另一方面,也需要這些調整是自組織的。所謂自組織,是通過神經元、或模式自身的資訊就能夠進行調整,而不是依靠大量巨集觀或外部的資訊來進行調整。如果依靠很多巨集觀和外部的資訊,其實就是把記憶、運算挪到了外部。這就不是一個可擴充套件的神經網路了。 

先不管這些問題的難度。如果我們找到了能夠解決這些問題的演算法,產生了模式。那麼其內部是否可分為更小的模式呢?可以認為大腦就是不同規模模式的組合。由於神經元之間的組合很自由,可能很難清晰的劃出各個模式之間的邊界。可以認為一組神經元之間的連線較多,而且它們和外部的連線較少,就可稱為一個模式。正因為模式邊界的模糊性,對其的研究就更難了。 

  • 大規模的模式整合

如果要解決很複雜的問題,就需要將很多模式一起配合。在解決一些實際問題的時候,可能有好幾個模式在使用,比如Cortana類的語音助手,有好幾個模式組合在一起工作,才能實現所需要的功能。但每個模式的輸入輸出,模式之間該如何組合,都花費了大量的人力物力來設計和實現。 

在基本組織結構的模擬上,產生了神經網路和機器學習的各種演算法。這些演算法大部分都將神經網路特殊化為分層結構,否則很容易因為訊號振盪、或自由度太大而無法有效輸出結果。基本上是人需要花不少時間對問題進行建模,然後調整各種引數,從而輸出比較理想的結果。機器學習的演算法從規模上比人類是有很大優勢的,由於人類大腦運算、輸入輸出速度的限制,是無法對大量資料進行有效的統計歸納,並發現其中規律的。當有了一個比較有效的模型,這就比較好做到了。這是普通機器學習智慧的優勢。大腦的優勢在於其容納了非常多的模式,而且很容易學會新的模式。 

隨著所需要配合的模式的增加,軟體複雜度也會隨之增長。通過人工來設計模式、組合模式的效率和人的大腦相比,效率就低了。人腦裡面的模式數量大概在千萬級,通過人工的方式,幾乎是不可能完成的任務。 

具體的問題有,

1)如何高效的發現新模式。這裡有兩種思路,一種是設計一個模式產生器用來產生新的模式,並將其嵌入到已有的系統中。另一種是讓神經網路自身能夠產生新的模式。這樣產生的模式之間可能並沒有清晰的界限,更像是大腦中網路的結構。

2)如何發現類似的模式,並將其合併。這對節省空間、提高計算效率、知識的舉一反三都有很重要的意義。這個問題對於輸入輸出定義很清晰的模式較容易,如果是人腦這樣的沒有清晰的模式界限的,就比較挑戰了。

3)模型的通用性。大腦有一個一般化的網路結構,其靈活性非常大。即使某些專用區域失去了功能,如聽力相關的區域,其它區域通過一些訓練,能夠恢復大部分功能。雖然某些部分,如小腦,有一些專用的變化,但其基本原理是類似的。這裡面的挑戰在於,如何能夠建立一個靈活的結構,可以組成不同等級的模式。 

  • 通用語言

這裡說的語言不是計算機程式設計的語言,也不是用於人和人之間交流的語言,而是適合強人工智慧內部交流的語言。人類大腦中是有這樣的語言的,平常說的只能意會,不能言傳,就是內部語言的表現。所謂意會就是出了人類語言之外的其它知識集或者感官可以理解的東西,但很難翻譯成人類語言。這種語言是大腦中比較高階的交流層次,是我們的主觀意識能夠感受到的最低層次的活動。最低層次的神經活動就是神經元之間的激發整合了,我們應該是很難感受到的。

通用語言的優勢在於能對各種概念、物體一層一層的歸納、建模。從而能夠描述非常複雜的物件或者抽象活動等。

大腦中能產生這種通用語言,和它自由、混沌的網路結構是分不開的。大腦通過神經網路的自組織,完成了各種概念層次的自組織。它的語言體系不是先定義後實現的,而是一邊輸入、一邊定義。這也是人為什麼年紀越大,經驗越豐富。因為通用語言的適應範圍隨著輸入的增長而變大。

說到這裡,我一直感覺我們的思想被馮諾依曼系統和現代計算機指令集限制了。我們走上了一條捷徑,建立了當今看似高度發達的計算機世界,但其實一直是在用硬編碼、強介入的方式來解決問題。人類花了很多智力資源用來和計算機系統溝通,比如,程式設計師。 

  • 世界模型

每個人的大腦中對這個世界都有一個模型,從哲學角度也叫世界觀。這個模型表達了人對這個世界的認知,包含了人所有的知識,對具體事物和抽象事物的理解。

雖然每個大腦先天上有所不同,後天的成長環境也不同,每個人的世界模型之間有一些偏差,但絕大部分都是一樣的。這就像DNA一樣,人和其它動物間的差別不大,別說人和人之間了,但人的個體差異從外表上也是很顯著的。這樣的個體差異也同時包括了先天和後天環境產生的差異。

當前的機器學習應用中的模型,一般都是單一或者有限的幾個模式。這樣的模型高度簡化了真實世界,雖然降低了每個單獨的問題難度,但是通用性很差。如果能有和人腦中類似的世界模型,絕大部分東西就可以重用了。這樣就能在已知的基礎上累積未知,在解決新問題時所需要的人工介入就很少了。

世界的模型是一個非常複雜的模型,估計包括了千萬級的模式。其複雜性以當前的人口基數和軟體管理水平是不能通過一行一行程式碼堆出來的。所以,需要通過大規模的模式整合來實現。一個能夠自動化產生各種模式並吸收知識的系統。這和人類從小到大所接受的教育是類似的。另外,人腦的強大除了學習,還有歸納。對於類似的模式,人腦是能夠將其合併的,這樣的合併不僅能節省空間,還能有效的發現未知的模式和提高響應速度。另外,人腦對知識的有效的有失真壓縮也是很有用的。大腦是永遠存不滿的,它會不斷的將知識合併、整理、遺忘。現在的計算機架構很難做到這一點。 

這些基本問題也不完全是停滯不前的,還是有一些進展的。比如多層神經網路也有了一定的發展,比如深度學習。再比如,控制非分層的神經網路中振盪的問題,也有些比較簡單的演算法來處理了。 

 

  1. 計算規模

雖然當前的計算能力已經很強了,但強人工智慧所需要的規模也是非常大的。按照通常的計算,人類有大約120億個灰質細胞,每個細胞有數百到上萬個樹突,假設平均每個細胞會有5000個樹突形成突觸。這樣算下來,突觸的數量大約有1013次方。從儲存上來看,假設每個突觸有1k的儲存量,總共是5PB的儲存量,雖然很巨大,但現在的儲存系統已經不難解決了。從計算量上看,假設人腦的頻率是100Hz,每次活動有1%的突觸參與。由於當前的計算機不是為神經活動設計的,所以需要用當前的指令集來模擬神經活動,假設每一次突觸活動需要100個處理器週期。假設用82.4G的處理器,算下來大概需要29萬個處理器,才能達到人類的運算速度和規模。雖然現在的超級計算機也有上十萬個處理器,但不是簡單的累加就可以達到同樣的計算能力。整個系統內的資料存取速度,通訊速度也是需要考慮的。在大規模的平行計算下由於處理器之間的通訊,協調等問題,計算效率是會下降的。另外,這只是一個人腦規模所需要的計算資源,如果要支援多個團隊的研究,所需要的資源就要數倍了。

現在IBM等公司已經在製造為神經網路優化的計算機了,且不說其架構是否和強人工智慧所匹配。但從能耗、成本、並行規模上應該比現在的處理器架構更適用於強人工智慧。即使這樣,也需要可觀的規模才能有足夠模擬一個人腦的資源。

 

  1. 現實利益驅動

在人工智慧發展的過程中有一個冷門期,大概是上世紀70年代。當時,一方面理論上沒什麼突破,另一方面也沒有找到實際的應用。所以研究機構、政府、企業等沒有動力繼續支援研究,大部分科學家們也因為不容易出成果也就不研究了。直到那些不撞南牆不回頭的科學家發現了新的理論、新的應用方向,才將大量的資源和科學家重新吸引過來。

當前人工智慧、機器學習方向雖然看起來熱熱鬧鬧的,但主要還是集中在應用領域。願意對強人工智慧投入的組織和科學家有不少,但不是主流。雖然無人質疑強人工智慧的應用範圍,但對其可預見範圍內能實現的信心不足,對其所需要的投資仍是敬而遠之。所以人工智慧雖然復甦了,強人工智慧的研究可以說仍然是在被冷落中。一旦對人類智慧的認識和模擬達到了新的高度,強人工智慧有了更切實的時間表,各種資源就會蜂擁而至。這和資本主義的逐利性是一樣的,從積極的方面來看,也是資源的合理調配。 

 

綜觀全文,主要篇幅都在講基本問題的挑戰,所以主要不在於運算規模和資源投入,還是要解決一系列的基本問題。從基本問題的難度上來看,如果有各種資源的投入,這個過程是能加快的。通過人腦來超越人腦,實現強人工智慧,需要規模化、系統化的研究,不停的迭代和積累,才會成功。

相關文章