通往強人工智慧,少不了的模擬大腦

naojiti發表於2019-08-30

人工智慧這個詞,從誕生到一路坎坷地迎來輝煌,就註定與“模擬”緊密相連。

1956年,在新罕布什爾州達特茅斯學院的一次小型會議上,赫伯特西蒙、約翰麥卡錫、克勞德夏農等AI界的開山鼻祖們,就提出了“智慧的任何特徵,原則上都可以精確描述,因此我們可以製造機器來對它進行模擬”。

當代也有不少科學家堅信,觀察研究人類大腦,可以輕鬆解決新一代人工智慧的設計問題。2013年,歐盟牽頭、26個國家135個合作機構參與的“人類腦計劃”(Human Brain Project,簡稱HBP)也將重點放在了,如何通過超級計算機技術來模擬人腦功能,以期實現人工智慧。

聽起來,模擬人腦的思維路徑,在此基礎上進行推理運算,得到新的知識、判斷,似乎是AI從誕生到進化的必由之路。

然而,遠有日本雄心勃勃打造的能像人一樣推理的“第五代計算機”宣告破產,近有耗時10年、燒光10億歐元試圖模擬大腦的“藍腦計劃”(Blue Brain Project)徹底涼涼,連一個蠕蟲的大腦都沒模擬成功。

這不禁讓我們有些疑惑,AI與模擬大腦之間,到底存在著怎樣複雜糾結的聯絡?

從熱戀到冷落:模擬大腦如何成為AI的備胎

先解釋一下,雖然都是對大腦智慧的“模擬”,但不同人工智慧學派的理念卻各不一樣。

符號主義學派主張模擬人腦的邏輯思維。先把問題或知識表示為某種邏輯結構,運用符號演算,從而實現表示、推理和學習等功能,典型代表就是專家系統。

聯結主義學派則主張模擬人腦的生理結構和工作機理。通過人腦神經網路、神經元之間的連線以及在神經元間的並行處理,實現對人腦智慧的模擬。現在街知巷聞的神經網路演算法,就是這一理念的成功應用。

而行為主義學派則主張直接模擬智慧行為的感知和動作模式。不要考慮複雜的知識、表徵、推理等等,讓AI在現實世界中通過自動控制過程與環境互動作用表現出來就好。

當然也有像瑞士神經科學家Henry Markram主導的“藍腦計劃”一樣,試圖用計算機建立複雜的數學模型,用來模擬人腦的86億個神經元和100萬億的突觸,以幫助研發出更智慧的機器人。

在當時來看,所有模擬理論或多或少都有一些問題。比如符號主義很難說清楚,數字模型與人類心理相似性上的關聯;聯結主義智慧粗略地模擬神經系統,如果訓練多層網路使用的路徑,就很難找到與之對應的生物學知識和匹配的硬體。行為主義只能實現低層智慧,比如讓機器蟲爬來爬去,而復刻一個數字化大腦就更不現實了,因為想要從細胞層面構建人腦模型、模擬860億個神經元的運作與相互關聯,以今天的腦科學水平註定只是白花錢。

所以,現實中的人工智慧,正如圖靈說所,唯一需要做的事就是找到腦內執行的程式,獲得正確的智慧演算法,然後在合適的硬體上執行它。

而時代的幸運兒就是深度學習。模擬人腦神經網路工作機制的深度學習方法,乘著網際網路的東風直上青雲,成為最適合將智慧程式與演算法下沉到社會機器上的核心技術。

在感知層面,利用現代計算機算力的提升,以及網路資料量的暴漲,讓深度學習通過大規模資料集與訓練來獲得資料模型成為了可能。

而在讓機器“看起來智慧”的核心推理能力上,深度學習也展現了足夠強大的進步。主要體現在兩個方面:一種是判別事物。在已知屬性的條件下,讓機器對某個事物進行判斷與分類,比如找出垃圾郵件或攻擊性語言,亦或是從影象、視訊中識別出某種特殊物體等等。

另一個能力則是生成。也就是通過訓練好的模型,產生處符合該模型描述的資料。比如風靡一時的AI換臉,越來越機靈的智慧語音助手,自動編寫新聞的機器人等等。

得益於這種在應用場景上快速開啟商業想象力的優勢,我們今天提到AI,絕大多數人的第一反應,已經不再是被替代的恐慌、超越人類的恐怖故事,而是如何讓數字世界為AI所用,再讓以深度學習及衍生技術為基石的AI反哺千行萬業,為社會生活提質增效。

既然如此,為什麼科學家們還是對模擬人腦的方案念念不忘呢?這恐怕要從“賽爾的中國屋”說起。

念念不忘,必有迴響:AI研究為何與模擬大腦再續前緣?

哲學家賽爾,曾經用這樣一個例子,來表達他對模擬程式的“機器智慧”並不認可。

他想象自己在一個屋子裡,有人會從視窗傳遞給他一個用中文書寫的問題,而他需要用中文給出答案。但賽爾完全不懂中文,也看不懂漢字,但他擁有了一套能幫他編寫答案的書。書中會告訴他複雜的規則,教他操作“無意義”的漢字元號,並將之變成答案。經過了充分的練習之後,賽爾就可以熟練地用中文輸出答案了,乍一看,似乎和地道的中國人沒什麼兩樣。

但顯然,我們並不能因此就認為,賽爾會中文。哲學家本人也由此得出結論,一個由毫無理解能力的各種要素組成的綜合體是沒法變魔術似的產生理解力的。

這與深度學習的邏輯有著異曲同工之處。某種程度上,也反映了當前智慧的技術實現路徑,所具有的侷限:

比如人類大腦能夠快速適應不斷變化的環境,而機器在不確定性較高的環境中,效能就會大幅下降,因此只能用於一些特定的領域。正如谷歌公司前副總裁安德魯·摩爾所說,今天最精密的計算機也不過是隻能“解決特定問題的智慧計算器”。你沒辦法讓一個炒菜機器人自己學會送餐,也沒辦法讓人工智慧主動“建立”並解決問題。

再比如學習效率上,人類大腦也與機器智慧大相徑庭。谷歌的機器識別演算法,在無監督的情況下自動學習識別“貓”的視覺影象,需要1 000臺計算機聯網合作。然而一個人類小孩在幼兒園玩玩具的功夫就能辦到。機器如果真的有思維,恐怕早就變成檸檬精了。

而且,人腦決策時會運用許多隱知識(也就是下意識的直覺),而機器必須根據複雜多元的環境不斷調整並改變策略,這就導致機器決策會出現明顯的時延。比如在駕駛時,人類很容易就能夠通過觀察汽車、人行橫道與路標,快速確定它們的通行順序與相對位置。而傳統的 人工智慧演算法卻需要在多個物體同時輸入系統之後去精煉它們的相關資訊,才能做出判斷。這也是為什麼自動駕駛只能在訓練場裡徘徊,遲遲無法走入真實道路的重要原因之一。

雖然深度學習發展到現在,已經藉由許多其他技術的引入,改變和彌補了最初的一些不足,比如元學習的引入,讓機器學習開始擺脫對資料量的依賴;與強化學習相結合,能夠讓智慧體在自我對抗中學習推理……但總體而言,人腦恰好就是那種非程式的智慧,而機器學習註定不是“終極答案”。

所以,AI轉而尋找模擬大腦這個“真命天子”,也就順理成章了。

回心轉意,腦機合體:AI能否實現極限操作?

事實上,近年來AI界已經認識到了人腦生物系統本身在處理資訊上的優越性,研究者們都在試圖複製這種模式,設計一個模仿大腦的神經網路。

比如韓國科學技術院的生物和大腦工程系李相完,就發表了“前頭葉控制”理論,即人腦可以自行評價對外部環境的認知度,通過外部訊號來處理資訊。將該原理應用於AI演算法和機器人等領域,可以設計出能夠根據外部情況變化,在效能、效率、速度等各個方面自動平衡到最佳狀態的智慧系統。這一成果也被收錄在了機器人工學領域的國際學術雜誌《科學》上。

最近,在《科學報告》雜誌上的一篇文章中,以色列巴伊蘭大學的科學家也證明了,基於大腦動力學(大腦計算速度比70年前的電腦還更慢)設計出的新型人工智慧演算法,效能遠遠超過了當前最先進的AI演算法。

在研究中,科學家認為神經生物學和機器學習不應該到現在還在獨立發展。甚至認為“大腦因複雜規則學習而變慢,也可以是一種優勢”。因為人腦能夠在樹突(也就是每個神經元的末端)進行“元控制”,也就是在沒有明確學習步驟的情況下,根據非同步輸入的資訊快速完成自適應。

這種沒有經過學習的“學習”方式,以前往往被認為是不重要的弱權重控制器,但在實驗中,無論是小型和大型網路,融合了大腦動力學樹突式學習的系統,學習速度都快的驚人,這也為基於高速計算機的新人工智慧出現提供了可能。

難怪研究人員不無期待地稱,人類對大腦基本原理的洞察必須再次成為未來人工智慧的中心。谷歌的技術團隊也認為,觀察人類大腦能夠解決工程學無法解決的AI演算法問題。

看來,這對CP的牽手只差一個產業端的集體“官宣”了。

在送出祝福之前,我們不妨來暢想一下,二者的結合可能開啟哪些想象?

一個是如前面科學家們所說,為人工智慧演算法找到新的突破口,脫離“模擬程式智慧”的桎梏;

而另一個機器人的智慧也可以得到顯著提高。“多工訓練”一直是當下人工智慧的突破難點,隨著模擬人腦的深入,既不用讓人類辛辛苦苦地對其進行“毆打”,來訓練其靈活處理資訊的能力,避免了不少倫理難題;還有可能將人類智慧匯入機器,培養出能夠執行復雜任務的“多功能”機器人。

或許也只有這樣,AI才能擁有一個真正智慧的“大腦”。不同道路在未來的交匯,將為AI的極限發揮埋下一個漂亮的引線。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31561483/viewspace-2655615/,如需轉載,請註明出處,否則將追究法律責任。

相關文章