強人工智慧基本問題:自上而下,還是自下而上。

squirrel_sc發表於2015-05-22

版本:0.1

 

人類智慧在巨集觀上有心理學,微觀上有分子生物學等學科研究。但每個方向研究到一定階段就停滯了,沒有哪個學科能告訴我們:為什麼能有智慧,如何才能產生智慧。即使已經瞭解了大腦的很多知識,人類智慧仍然是個黑盒子。

對黑盒的研究,要麼從外部觀察其行為,然後來模擬其結構,可稱為自上而下的研究;要麼猜測其結構,然後從外部的輸入輸出來驗證其行為,可稱為自下而上的研究。題目所說的自上而下還是自下而上即是從哪個方向來研究強人工智慧問題。

巨集觀上研究的成果中,最顯而易見的就是類人機器人。這類機器人從行為、語言、表情等方面來模擬人。如果最終能讓人覺得這些機器人是真人,那麼這個方向就算是成功了。當然,從現在的成果來看還不成功。另一方面是深藍、沃森這樣的依靠在下棋、回答問題等方面來戰勝人類智慧,從而證明自己能力。從這些特定的領域上來看,它們是比較成功的。但就算是把上面提到的所有方面都合到一起,也很難認為他們達到了人類的能力。

微觀上的研究,是從感知器的結構被提出來後開始的。從此產生了現在的人工神經網路、機器學習等大量的演算法和研究成果,解決了很多實際問題。從微觀上出發,證明了它們從微觀結構上模擬的優勢,但需要花費大量時間建立問題模型。

由此看來,當前自上而下和自下而上的方法都有了一定的成果。但通過現有方法來構建強人工智慧,成本是非常巨大的,幾乎不可實現。

 

有些情況下,物體在很少數量下的性質和龐大數量下的性質相差很大。這也是複雜系統研究的難點。從不同的層級進行研究,能夠發現不同的規律,解決不同的問題。這裡提到了層級的概念,這裡的層級和上一篇文中分層的層次不一樣。上文的層次是神經網路中具體的層次。本文的層級是由於研究物件數量或其它性質的巨大不同,從而產生了看上去很不一樣的行為。對不同層級的行為能歸納出不同的規律,這些規律能夠幫助我們有效的理解和預測研究物件的行為。比如低速下的牛頓力學和光速下的相對論,由於速度的巨大差異,在低速下得出了簡化後的牛頓力學,其幫助了我們認識了低速世界。後來的相對論不僅歸納了高速時的規律,在低速下也能適用。再比如物質在原子、分子層面體現出的是基本作用力;在奈米層級又體現出新的性質;在巨集觀上人能直接觀察的規模上,又組成了萬物,形成了更復雜、更多的性質。這看起來和智慧是很類似的,首先神經元細胞有自己的生物性質;大量神經元細胞(平方釐米級)組合在一起,可以被觀察到協同進行某種活動;整個大腦則產生了我們所能感知的智慧;而整個人類社會,則儲存了人類的所有知識、習慣,產生了群體智慧和行為。這種群體智慧也不是一個大腦能有效理解和預測的。

 

每一層級的規律其實是其低一層規律的規模化結果,其又是上一層規律的基礎。如果要對整個系統有全面的瞭解,就要從某一層級出發,往上或往下研究,得出規律。如果說一個神經元細胞是一個的層級,而整個人腦也是一個層級。在這兩層之間還有多少層呢?自上而下的研究方法給出了人腦的功能區的劃分,這個作為一個層次。而自下而上的方法給出了人工神經網路的層次,這個層次能夠處理單個問題或叫做模式。這兩方面的研究到這基本都停滯了。這中間一定還有一個或若干個層次能夠幫助我們理解智慧的規律。

 

再來看看題設的問題,如果一定要給出一個答案的話,我會傾向於自下而上的研究。先說說自下而上研究的優勢。自下而上的研究看起來更像是白盒研究,通過模擬來了解智慧真正的機制。而自上而下的研究像是黑盒研究,更多的需要去猜測或者嘗試來達到同樣的功能。如果能夠猜出結構當然最好,但如果黑盒非常複雜,猜出結構是很難的。模仿其複雜行為也是很困難的。但同時,自上而下的研究也非常具有指導意義,其瞭解了人腦不同區域是有分工的,輸入輸出的處理使用了大部分大腦。自上而下的研究也積累了很多經驗,可以用來驗證強人工智慧的能力。

 

強人工智慧的物質基礎和神經元細胞是不一樣的,我們不是通過製造真正的神經元細胞來製造強人工智慧。所以研究的最底層級不是直接對映到神經元細胞,要把神經元細胞中與智慧相關的一些特性抽取出來,以便在其它物質基礎上構造智慧。需要區分細胞的哪些行為是和智慧相關的,哪些行為是和其物質基礎相關的。有些因素也許看上去和物質基礎相關,但其可能也影響了智慧的產生。以下是一些神經元細胞特性的猜測和討論,可以有助於把和智慧產生相關的部分抽取出來。

  1. 神經元細胞的大部分活動是依靠化學反應,有些是不可逆反應。這個過程需要不斷的反應物質和能量的供給,一旦能量跟不上,其反應可能變得遲鈍。在計算機中,能量的供給是依靠電子的流動,不需要物質的化學變化,所以能量供給是高效的。但神經細胞對大量刺激會變得遲鈍這樣的特性也許是產生記憶效果的一個因素。同時,由於細胞內物質濃度的變化,可能會引發下一級反應,從而產生神經元細胞的變化,這也可能是產生記憶效果的因素。總之,從這一點來看,神經元的記憶是可以通過其輸入輸出的變化來調整的,不一定需要通過全域性的目標函式來調整。
  2. 上一點中提到的物質、能量短缺的影響,不僅會影響神經元細胞本身,也會對周圍細胞活動產生抑制。這也是一些選舉小範圍中最活躍神經元演算法的物質基礎。這個特性有利於減小區域性過於活躍,從而產生振盪或弱化全域性的特徵。
  3. 神經元的樹突生長是比較慢的,可能要經過大量的刺激,才能產生有效的突觸。強人工智慧也許可以通過外部開關來判斷是否處於訓練時間,來調整連線的建立速度,從而提高學習效率。
  4. 神經元細胞的空間結構。大腦皮層的皺褶展開後是一個平面,這個平面上的灰質細胞也有一定的層數。對於灰質細胞的層次的作用,也產生了有意思的演算法,比如Hierarchal Temporal MemoryHTM,這是我看到的最有趣的一個演算法)。由於人類的空間是三維的,所以物理結構最複雜也就是三維結構。但考慮到能量供給和資訊傳輸,神經元細胞只能達到類似於二維的結構。這時候就產生了神經元細胞相鄰的很多特點。假設神經元細胞樹突的長度平均是有限的,而且每個神經元的大部分樹突是比較短的,這樣相鄰的神經元之間的交流就更多,長距離的就比較少。所以相鄰細胞之間處理的資訊更類似。
  5. 細胞個體的可靠性是沒有計算機高的,所以神經元細胞需要更強的冗餘性。相鄰細胞之間需要通過相互備份來產生冗餘。所謂備份、即它們的輸入輸出狀態、以及反應的閾值都比較相似。相似值高,則變化所需要的刺激和能量都高,一方面代表了學習難度的增大,另一方面也代表記憶的強度很高。反之,則學習難度低,但容易因為覆蓋或神經細胞死亡產生遺忘。強人工智慧也許可以通過減少相鄰細胞的相似性來縮小網路的規模,並用別的方式來控制記憶強度。
  6. 神經元細胞的生長分化。神經元細胞是在胚胎髮育的過程中產生的,所以有從無到有的過程。在當前神經網路的研究中,網路的初始化和如何決定規模都是需要考慮的問題。而在大腦的初始化依賴於細胞的分裂。在神經細胞的分裂過程中,新的細胞會繼承原先細胞的突觸。這個過程不僅保留了記憶,同時保持了各種輸入輸出的連通性。

總而言之,從神經細胞級的研究,能夠找到很多有效的線索和特點,這些是上一個層級規律的基礎。但這些特性既有和智慧產生相關的部分,又有和生物體運轉相關的部分。如何對這些特性進行篩選,從而得出細胞層級的智慧基礎,對於研究上一層級是非常重要的。由於智慧的複雜性,單純自下而上的研究容易發散到不正確的道路。在各種演算法試驗的過程中,需要自上而下所得到的一些經驗來驗證是否走到了正確的路線上。

相關文章