來源 | 浙江大學公眾號
編輯 | 陳彩嫻
近日,浙江大學聯合之江實驗室共同研製成功了我國首臺基於自主智慧財產權類腦晶片的類腦計算機(Darwin Mouse)。
這臺類腦計算機包含792顆浙江大學研製的達爾文2代類腦晶片,支援1.2億脈衝神經元、近千億神經突觸,與小鼠大腦神經元數量規模相當,典型執行功耗只需要350-500瓦,同時它也是目前國際上神經元規模最大的類腦計算機。
與此同時,團隊還研製了專門面向類腦計算機的作業系統——達爾文類腦作業系統(DarwinOS),實現對類腦計算機硬體資源的有效管理與排程,支撐類腦計算機的執行與應用。
1 顛覆傳統的計算模式
對於如今在工作生活各個領域中早已司空見慣的計算機,或許大家已經忘了:最初科學家是想透過機器模擬出一個人類大腦。
然而計算機的發展,在當時選擇了以數值計算見長的馮·諾依曼架構,也就是以數字加減乘除的方式來進行資訊架構。隨著摩爾定理逐漸失效,馮·諾依曼架構帶來的侷限日益明顯,儲存牆、功耗牆、智慧提升等問題,讓當前計算機發展面臨重大挑戰。
比如,儲存牆問題是由於現有的馮·諾依曼架構中資料儲存和計算的分離產生的。“這就好比資訊儲存在甲地,要計算的時候就把資訊搬到乙地去,計算好了再搬回甲地去。但搬運的速度要遠遠低於計算的速度,反而讓搬運本身成為關鍵瓶頸。”研究團隊負責人、浙江大學電腦科學與技術學院教授潘綱說,這種計算模式制約了以大資料為代表的計算效能提升。
而由此帶來的資料“跑動”,以及人工智慧等高耗能計算又讓功耗牆問題冒了出來。同時,資料驅動的智慧演算法、訓練需要海量樣本與密集計算,但舉一反三、自我學習等高階能力比較差,“現在的機器智慧離人的智慧差得還很遠。”
如何突破現有計算執行方式導致的計算機瓶頸?
全球科學家們再次將目光瞄準到模仿生物大腦這個最初的夢想,透過模擬人腦結構與運算機制來發展新的計算技術,以期實現高能效與高智慧水平的計算。
生物大腦在與環境相互作用過程中能夠自然產生不同的智慧行為,包括語音理解、視覺識別、決策任務、操作控制等,而且消耗的能量非常低。自然界中,很多神經元遠低於100萬的昆蟲就能做到實時目標跟蹤、路徑規劃、導航和障礙物躲避。
潘綱介紹說,用硬體及軟體模擬大腦神經網路的結構與執行機制,構造一種全新的人工智慧系統,這種顛覆傳統計算架構的新型計算模式,就是類腦計算。其特點在於存算一體、事件驅動、高度並行等,是國際學術界與工業界的研究焦點,更是重要的科技戰略,“類腦計算已被看作是解決人工智慧等計算難題的重要路徑之一。”
近年來,浙江大學聚焦人類智慧與機器智慧等核心領域,實施了簡稱為“雙腦計劃”的腦科學與人工智慧會聚研究計劃,希望借鑑腦的結構模型和功能機制,將腦科學的前沿成果應用到人工智慧等研究領域,建立引領未來的新型計算機體系結構。
2015年和2019年,浙江大學分別研製成功達爾文1代和達爾文2代類腦計算晶片,用晶片去模擬大腦神經網路的結構與功能機制,在影像、影片、自然語言的模糊處理中具有優勢。而這次的成果是將792顆我國自主產權的達爾文2代類腦計算晶片整合在3臺1.6米高的標準伺服器機箱中,形成了一臺強大的機架式類腦計算機。
那麼,這種高效能低功耗是如何實現的呢?專案研究骨幹馬德副教授說,大腦神經元的工作機理是鉀離子鈉離子的流入流出導致細胞膜電壓變化,從而傳遞資訊,“可以簡單理解為,一個神經元接受輸入脈衝,導致細胞體的膜電壓升高,當膜電壓達到特定閾值時,會發出一個輸出脈衝到軸突,並透過突觸傳遞到後續神經元從而改變其膜電壓,實現資訊的傳遞。”
這裡很重要的一點是非同步執行,也就是訊號來的時候啟動,沒有訊號就不執行。類腦晶片的工作原理就類似於生物的神經元行為,透過脈衝傳遞訊號,這樣就能實現高度並行,效率提升。
2 讓機器像人腦一樣“思考”
有了硬體,還得有軟體。
專案研究骨幹金孝飛介紹,每顆晶片上有15萬個神經元,每4顆晶片做成一塊板子,若干塊板子再連線起來成為一個模組。這臺類腦計算機就是這樣像搭積木一樣搭起來。
說起來容易,可要讓這麼多神經元能夠互聯並且可擴充從而實現高效的聯動組合,同時要把雜亂無章的資訊流有序分配到對應的功能腦區,可不那麼簡單。
為此,科研人員專門研發了一個面向類腦計算機的類腦作業系統——DarwinOS。
這款達爾文類腦作業系統面向馮·諾依曼架構與神經擬態架構的混合計算架構,實現了對異構計算資源的統一排程和管理,為大規模脈衝神經網路計算任務提供執行和服務平臺。專案研究骨幹呂攀介紹說:“目前達爾文類腦作業系統的功能任務切換時間達微秒級,可支援億級類腦硬體資源管理。”
由此,類腦計算機研究的價值真正得以實現——既可以應用於生活中的智慧任務處理,也可以應用於神經科學研究,為神經科學家提供更快更大規模的模擬工具,提供探索大腦工作機理的新實驗手段。
目前,浙江大學與之江實驗室的科研人員基於Darwin Mouse類腦計算機已經實現了多種智慧任務。研究者將類腦計算機作為智慧中樞,實現抗洪搶險場景下多個機器人的協同工作,涉及到語音識別、目標檢測、路徑規劃等多項智慧任務的同時處理,以及機器人間的協同。
同時,還用類腦計算機模擬了多個不同腦區,建立了丘腦外側膝狀核的神經網路模型,模擬了不同頻率閃動的視覺刺激時該腦區神經元的週期性反應;借鑑海馬體神經環路結構和神經機制構建了學習-記憶融合模型,實現音樂、詩詞、謎語等的時序記憶功能;實現了腦電訊號的穩態視覺誘發電位實時解碼,可“意念”打字輸入。
記者在實驗現場看到,3臺外形相似的機器人,在經過簡單的訓練後,合作開展抗洪救險任務。只見1號機器人憑藉自帶攝像頭開始在場地巡邏,當發現堤壩缺口後,就呼叫負責工程的3號機器人前來修壩,同時搜尋受傷人員,當發現倒在地上的人體模型後,又呼叫負責救援的2號機器人。3號機器人和2號機器人趕來執行任務,1號機器人又去別的地方巡邏了。
這一幕似乎並不新鮮,現有的機器人也能做到。但最大的不同在於這幾個機器人是在類腦計算機的控制下透過語音開展移動指令,並接受任務分配。“不同機器人的任務可以透過指令切換,也就是說它們的功能並不是固定的,而是透過不同腦區來操控的,1號機器人現在幹巡邏的活,過會又可以變成負責救援或者工程。”專案研究骨幹李瑩副教授說。
在另一個實驗場景中,課題組成員給計算機演唱一首歌其中的兩句,然後,計算機就能透過回想把後續的歌曲內容“唱”出來。
“這是類腦計算機透過模擬海馬體記憶機制,實現對大腦內部記憶資訊的存取,與我們常用的檢索功能不同。”專案研究骨幹唐華錦教授說,Darwin Mouse類腦計算機透過借鑑海馬體網路結構以及神經機制建立記憶模型架構,可以模擬海馬體的記憶-學習功能,透過記憶的脈衝編碼,同一模型就可以學習與記憶語音、歌曲、文字等不同型別資料。
3 類腦計算機將如何“進化”
1946年誕生的世界第一臺計算機重達28噸,運算速度為每秒5000次的加法運算,然而在以後的70多年裡,計算機技術飛速發展。類腦計算機的發展速度很有可能也會令人驚訝。
別看現在的類腦計算機是個“大塊頭”,科學家們表示,隨著達爾文晶片及其他硬體的不斷迭代升級,體積縮小將指日可待。未來類腦計算機或將植入手機、機器人,產生新的智慧服務體驗。
與硬體上的更新相比,如何讓類腦計算機變得更聰明是科學家們下一步研究的重點。
目前,市面上的感測器輸入的訊號還是以數字為主,在應用到Darwin Mouse類腦計算機上,要加一個編碼層,將訊號轉換為脈衝式的,而在這個過程中,資訊有丟失和損傷,會在一定程度上降低計算機的功效。如果能解決這個問題,類腦計算機就能變得更加智慧。
當前,類腦計算研究還處於初級階段,Darwin Mouse類腦計算機,無論從規模還是智慧化程度上都與真正的人類大腦還有很大的差距,但其意義在於能夠為這種技術路徑提供一個重要的實踐樣例,為研究人員提供一個工具和平臺,驗證類腦演算法,以更強的魯棒性、實時性和智慧化去解決實際的任務。
浙江大學和之江實驗室研究員的目標是,希望隨著神經科學發展和類腦計算機的系統軟體、工具鏈及演算法的成熟,有朝一日能夠讓類腦計算機像馮·諾依曼架構計算機一樣通用化,真正像大腦一樣高效工作,與馮·諾依曼架構並存與互補去解決不同的問題。
一位業內人士表示,從加減乘除這樣的數值計算方式,到模擬大腦的脈衝計算方式,這是一次重要的計算模式的變革。潘綱說:“我們希望能夠像生物進化一樣,不斷地讓達爾文系列類腦計算機朝著人類智慧的方向發展,以超低功耗提供更強的人工智慧。”