Science:人工智慧的發展離不開神經科學,先天結構或是下一個方向

北北北樂發表於2019-02-22

數學家阿蘭·圖靈 1950 年的開創性論文引領了人類對人工智慧(AI)的探索,他在這篇論文中提出了一個問題:「機器能否思考?」,那時候唯一已知的能夠進行復雜計算的系統是生物神經系統。因此,毫不奇怪那時候這個新興的 AI 領域的科學家都將大腦回路作為引導。

其中一條道路是通過類腦回路執行智慧計算,這個方向的早期嘗試近來已經創造出了巨大的成功,並可被描述成一種用於建模皮層迴路的高度還原論(reductionist)的方法。

其當前的基本形式被稱為「深度網路」架構,這種腦啟發模型是通過類神經元件組成的連續層構成的;這些元件按照生物學中類似作用的元件而被稱為「突觸」,它們通過可調節的權重相連。

深度網路和相關方法在 AI 系統中的應用已經帶來了變革。研究證明它們在 AI 研究的核心領域優於之前已知的方法,包括計算機視覺、語音識別和生成、玩複雜的遊戲。它們也已經取得了廣泛的實際應用,涉及很多領域,包括計算機視覺語音和文字翻譯,其它還有很多領域也存在大規模的努力。

我將在這裡討論大腦回路中的其它方面將可能如何引導網路模型的發展,從而讓我們瞭解認知和通用人工智慧的更多方面。


差 異

深度網路的核心問題是學習(learning),這是對突觸的調整,從而得到針對其輸入模式的期望輸出。這樣的調整是基於訓練樣本集自動執行的,而訓練樣本集中包含輸入模式以及配套的期望輸出。然後,學習過程通過調整權重得到訓練輸入模式的期望輸出。成功的學習會讓網路超越記憶訓練樣本的情況,而且使其能夠泛化,為學習過程中從沒見過的新輸入模式提供正確的輸出。

研究者將深度網路模型與實際得到的生理學、功能性磁共振成像和行為資料進行了比較,結果表明大腦與這類新模型之間存在一些有趣的相似性,但同時也存在一些不相似的地方(見圖)。對比靈長類動物的視覺系統,生理學響應與模型響應在神經元響應過程的早期階段比後期階段更為近似,這說明深度網路模型也許能更好地體現早期的處理過程,而不是後期的更涉及認知的過程。

Science:人工智慧的發展離不開神經科學,先天結構或是下一個方向

大腦回路與學習,來自 C. BICKEL/SCIENCE

除了深度網路,AI 模型近來還融合了類腦計算的另一個重要方面:強化學習(RL),其中使用了大腦中的獎勵訊號來修改行為。

這種形式的學習中涉及的大腦機制已經得到了廣泛的研究,而且其計算模型也已經在 AI 領域得到了使用,尤其是在機器人應用中。強化學習可用於在世界中運作的智慧體(人、動物或機器人)中,通過接收的獎勵訊號作為回報。強化學習的目標是學習一個最優「策略」,這是從狀態到動作的一個對映,以便最大化隨時間獲得的一個整體度量的獎勵。

在近期的一些 AI 演算法中,強化學習方法已經與深度網路方法結合到了一起,並且在遊戲領域的應用尤其突出,涵蓋的範圍包括流行的視訊遊戲到高度複雜的遊戲,比如國際象棋、圍棋和將棋。深度網路與強化學習的結合在玩遊戲方面取得了驚人的成果,包括令人信服地擊敗了世界頂級的圍棋棋手、在大約 4 小時的訓練之後達到了國際象棋世界冠軍的水平;這些都是僅從遊戲規則開始,通過內部自我對抗進行學習而達成的。

從使用神經科學引導 AI 發展的角度看,因為相比於皮層迴路,這些網路的形式是經過高度簡化的,所以這樣的成功很讓人驚訝。一些其它的腦啟發方面(比如跨神經元組歸一化或使用空間注意)也已經被整合進了深度網路模型中。但一般而言,我們所知的有關神經元的幾乎一切(它們的結構、型別、互連性等等)都被排除在了深度網路模型的當前形式之外。

我們目前仍不清楚生物迴路的哪些方面在計算上是關鍵的,並且也可用於基於網路的 AI 系統,但結構中的差異很顯著。比如,生物神經元在它們的形態學、生理學和神經化學方面都非常複雜和多樣。

典型的受到激勵的錐體神經元的輸入分佈在複雜的、高度分支的底和頂樹突樹上。抑制型皮層神經元具有多種不同的形態,它們很可能執行著不同的功能。典型的深度網路模型都沒有包含這種異質性和其它複雜性,而是使用了有限種類的高度簡化的同質的人工神經元。在網路中單元之間的連線性上面,大腦中皮層迴路也比當前的深度網路模型更復雜,並且在同一層的神經元之間具有豐富的橫向連線,其中既有區域性連線,也有長程連線,而且還有從皮層區域的高層區域到低層區域的從上到下的連線,而且可能會組織在典型的區域性「規範迴路(canonical circuits)」中。

基於深度網路的學習方法主要在與現實世界的感知資料(比如視覺和語音)相關的問題上取得了顯著的成功,近來研究者已經將越來越多努力投入到了自然界中更涉及認知的問題上。比如在視覺領域,網路模型最早是為處理目標分類和分割等感知問題而開發的。類似的方法經過某些擴充套件後現在已經被用在了影象描述(任務目標是生成一張影象的簡短語言描述)和視覺問答(任務目標是為以自然語言提出的有關影象內容的查詢提供恰當的答案)等更高層面的問題上。其它還有一些非視覺任務,比如評價幽默程度、檢測諷刺、獲取直觀的物理知識或社會理解的一些方面。研究者們也為一些高難度的真實世界應用開發出了類似的方法,包括線上翻譯、靈活的個人助理、醫療診斷、先進機器人學、自動駕駛。

有了這些重大的研究努力以及投入到未來 AI 應用中的大量資金,需要解決的重要問題是:當前的方法能在何種程度上生成「真實」和類似人類的理解,或者是否還需要其它的(也許非常不同的)方向來處理認知和通用人工智慧(AGI)的眾多不同方面。我們還不知道這個問題的答案,但不管是科學上還是商業上,這都非常重要。


先天結構

如果事實證明當前深度網路模型在產生類人認知能力方面的成功是有限的,那麼我們很自然又會向神經科學尋求指引。

當前 AI 模型忽視的大腦回路的那些方面是否會是 AGI 的關鍵?大腦的哪些方面可能是尤其重要的?

目前我們還沒有顯而易見的答案,因為我們對皮層迴路的理解仍然還很有限,但我會簡要討論一下大腦和深度網路模型看起來根本上不同的一個一般性方面,而且這個方面很可能在我們追尋類人 AGI 之路上發揮重要的功用。

這一差異的核心是一個老生常談的問題,關乎認知中經驗主義(empiricism)與先天主義(nativism)之間的平衡,即先天的認知結構與通用的學習機制之間的相對重要程度。

當前的 AI 建模方法嚴重傾向於經驗主義一方,會使用大型的訓練資料集。相對而言,生物系統往往僅需少量訓練就能完成複雜的行為任務,它們基於特定的預先存在的網路結構,而且該結構在學習之前就已被編碼在了迴路之中。

比如,針對複雜的導航任務,包括昆蟲、魚類和鳥類在內的不同動物物種都能部分地依靠一套先天固有的特定用途的複雜精細的機制外加精妙的計算能力來完成。

對於人類,嬰兒會在生命的最初幾個月開始發展出複雜的感知和認知技能,且僅需很少或無需明確的訓練。比如,他們能夠自發地識別出人手等複雜的目標、跟隨其他人的注視方向、通過視覺分辨動畫角色是在幫助其他角色還是妨礙其他角色,還能完成其它很多不同的任務,能表現出他們對物理互動和社會互動的初級理解。

大量發展中的研究都表明這種快速的無監督學習之所以是可能的,原因是人類的認知系統通過進化而配備了先天的基礎結構,這些結構能夠促進對意義概念和認知技能的習得。

與已有的深度網路模型相比,人類認知學習和理解的優越性可能很大程度上源自人類認知系統具備的豐富且複雜很多的先天結構。近來對嬰兒期視覺學習的建模研究已經表明學習與先天機制的結合是有用的,其中有意義的複雜概念既非先天固有,也不是靠自己學習得到。

從這個居中的角度看,先天的那部分不是已經發展好的概念,而是更簡單的「原型概念」,這能提供內部的教學訊號,引導學習系統,從而僅需少量或無需明確的訓練就能逐漸習得和組織複雜概念。

比如,研究已經表明一種特定的影象運動模式可以為人手識別提供可靠的內部教學訊號。對人手以及它們在操作物體中的參與情況的檢測可以引導學習系統學習檢測注視方向,而檢測注視目標又在學習推理人的目標中發揮著重要作用。這樣的先天結構可以通過在區域性皮層區域中佈置特定的初始連線,再將輸入和誤差訊號提供給特定的目標來實現。

人工網路模型也可以採用有用的預設結構來使其學習和理解更接近人類。發現有用的預設結構這一難題的解決方法可以是理解和模仿相關的大腦機制,或開發從頭開始的計算學習方法來發現支援智慧體、人類或人工智慧的結構,使其能以高效且靈活的方式學習理解自己的環境。

這一方向上已有一些嘗試,但一般而言,「學習先天結構」這一計算問題不同於當前的學習過程,而且我們的瞭解還很少。長期來看,將經驗主義方法與計算方法結合起來處理這一問題很可能對神經科學和 AGI 都有利,並最終可能會成為可應用於這兩個領域的智慧處理理論的一部分。



為了幫助大家讓學習變得輕鬆、高效,給大家免費分享一大批資料,讓AI越來越普及。在這裡給大家推薦一個人工智慧Python學習交流群:705673780歡迎大家進群交流討論,學習交流,共同進步。

當真正開始學習的時候難免不知道從哪入手,導致效率低下影響繼續學習的信心。

但最重要的是不知道哪些技術需要重點掌握,學習時頻繁踩坑,最終浪費大量時間,所以擁有有效資源還是很有必要的。


相關文章