和 Nature 封面論文一作,聊了聊天機芯的科研故事

HyperAI超神經發表於2019-10-22

鄧磊,清華首位類腦計算博士、美國加州大學聖芭芭拉分校博士後。8 月 1 日《 Nature 》雜誌的封面上,展示了文章《面向人工通用智慧的異構天機晶片架構》,他作為第一作者,負責了晶片的設計和演算法細節。

未命名_meitu_444.jpg
該論文實現了中國在晶片及 AI 領域《自然》論文零的突破,左邊為論文第一作者鄧磊

上週四,由清華大學科協星火論壇聯合清華大學類腦計算研究中心,以及 HyperAI超神經,舉辦了「從 AlphaGo 到類腦天機晶片,人工智慧走向何處」的主題論壇。鄧磊作為特邀嘉賓受邀出席,以圓桌論壇的形式分享了自己的一些觀點。本文將跟隨論壇上的問題,回顧他在 AI 和類腦計算領域的一些洞見。

學並探索著:類腦計算中心的第一個博士

提問:您是怎麼進入到類腦計算這個研究方向的?這個學科具體涉及到哪些內容?

當年讀類腦計算博士的時候,類腦計算還未普及,當時還搜尋了一下,並沒有查到太多有效資訊,之後還特意詢問了導師……

作為類腦計算研究中心的第一個博士,我見證了類腦中心從零開始走到現在。包括後來的開公司、做研究。2017 年之後,我畢業去了美國,之後轉到偏計算機的方向。現在有 50% 是做理論, 50% 是做晶片。

我本科是做機械的,後來發現做機械沒有太多天賦,就慢慢轉到做儀器,後來還去做過機器人,研究過一些材料和微電,之後開始做 AI 的一些演算法、理論,最後才到晶片,慢慢進入到類腦計算。一路上不斷走不斷學,大概是這樣一個過程。

workshop_170515_3.jpg
鄧磊於 2017 年完成博士學位答辯,當時清華類腦計算研究中心全體合影

注:清華大學類腦計算研究中心,於 2014 年 9 月創立,涉及基礎理論、類腦晶片、軟體、系統和應用等多個層面。此中心由清華大學校內 7 家院系所聯合而成,融合了腦科學、電子、微電子、計算機、自動化、材料以及精密儀器等學科。

類腦計算的研究涉及到了多學科交叉融合。源頭肯定還是醫學(腦科學),現在的人工智慧最初脫胎於心理學和醫學,它們為模型提供了一些依據。

接下來的就是機器學習,以後它們肯定還是會走到一起,但現在分開來講,是因為機器學習有更多做產品的經驗,通常是從應用的角度來進行思考。

此外還有電腦科學,現在有 GPU 解決不了的問題,所以阿里華為都開始做自己的專用晶片,對計算架構方向的學生,也可以考慮往這個方向發展。

再往下就是晶片等硬體,這涉及到微電子甚至材料,因為要提供一些新的器件,現在還是用的一些很基礎儲存單元,但未來肯定會有一些新的器件,比如說碳奈米管、石墨烯等材料能不能應用進來。

另外還有自動化方向,很多做機器學習的人,通常是計算機系和自動化系的,因為自動化是做控制做優化,這和機器學習有異曲同工的地方。在類腦計算中,這些學科很好的融合在了一起。

WechatIMG1478.jpeg
作為清華類腦計算研究中心的第一位博士,博士在讀期間,他發表了 9 篇學術論文,申請了 22 項專利

提問:當時是有什麼樣的驅動,或者說什麼樣的契機,最終選擇了這個方向?

用一句話來說,這個方向最大的魅力在於它做不完。

我曾經想過一個哲學悖論,研究類腦計算跟人腦分不開,但用人腦來思考人腦,並不知道會達到什麼程度,對它的研究也就永無止盡。

因為人類對自己的思考,是永遠會存在的,總是會經歷高潮,然後進入平淡期,突然又出現了突破,它永遠不會停止。這個角度去看是很值得研究的。

提問:您目前所在的博士後階段,研究上有哪些不同?

以前在清華做晶片,更多的是從實用的角度,想的是我能做一個裝置,或者一個儀器出來。

但是去美國後,更多的是從學科的角度來考慮這個事情,就像計算專業的計算架構,就像 ACM 很多圖靈獎,都是從來這方面來看待問題,雖然做同樣的事情,思考的角度就不一樣了。

如果從計算架構的角度來看,任何一個晶片無非就是計算單元、儲存單元、通訊就這三個方面,不管怎麼做,都是這三個事情的範疇。

天機芯和類腦計算:自行車不是重點

提問:Nature 的這篇文章,是一個里程碑的事件。在過去的幾十年中,您認為的里程碑事件有哪些?在類腦計算領域,又有哪些事件推動了行業的發展?

類腦計算這個領域相對複雜,我從人工智慧的脈絡來梳理,會更明顯一些。

人工智慧不是單一的學科,基本上可以分為四個方向。第一個是演算法方面,第二個是資料,第三個是算力,最後是程式設計工具。里程碑的事件可以從這四個方向來看。

就演算法來講,當然是深度神經網路,這個是毋庸置疑的;從資料的角度來說,ImagNet 是一個里程碑,之前沒有大資料的加持,深度神經網路幾乎被埋沒。

在算力的角度,GPU 是一個很偉大的誕生。程式設計的工具,像 Google 的 TensorFlow 之類普及的應用,是推動發展的一個重要因素。

這些事情促進了 AI 的前進,而且它們是一個迭代發展的過程,缺了一個都不會有今天的局面。但 AI 也有自己的侷限性,比如 AlphaGo ,它只能進行單任務,除了下棋別的就做不好。這跟大腦是不一樣的。

第二個就是可解釋性,我們用深度神經網去進行擬合,包括用增加強化學習,但它們內部發生了什麼事情,還是不清楚的,一些人正在試圖將這個過程視覺化或弄清楚它的原理。

第三個是魯棒性, AI 不像人一樣穩定。比如自動駕駛,現在的 AI 也只是被用於輔助駕駛,是因為它還不能保證絕對的安全。

因為這些缺點,必須要去關注腦科學的發展,引入更多的腦科學的機制。在我看來,最迫切的就是讓智慧更通用化。

WechatIMG1477.jpeg
鄧磊在週四的星火論壇中發言

至於里程碑的事件,AlphaGo 算得上一個。因為它把 AI 抬到公眾的視野中,讓所有人去關注 AI,而且強化學習也是在之後才火起來的。

從晶片的角度來說,有側重演算法和受生物腦啟發兩類晶片,在這兩類晶片的發展中,分別有兩個里程碑。

第一類是機器學習方面,現在深度神經網路都是在 GPU 上計算,但 GPU 不是最高效的,有一批公司像寒武紀,在尋找替代 GPU 的方案,這是一個重要的事件。

另一類不侷限於機器學習,是從大腦的角度找模型做專用的晶片,這方面 IBM 或者英特爾做的比較好。

天機晶片之所以很受關注,就在於將這兩類各自的優勢,整合到了一個架構上去。

提問:你們團隊釋出了天機芯在自行車上的測試,能具體介紹一下這方面嗎?

在網上大家都被自行車所吸引,但我們團隊都知道,自行車不是我們的重點,它只是一個 Demo 的平臺,因為當時我們在想,要找一個好的平臺去給大家展示。

5d42a809a31099ab43cd46ea.gif
應用了天機芯的自行車,可以完美的自行運動,躲避障礙

自行車的演示中,有視覺、聽覺還有運動控制,通過一個晶片去完成這些功能,是一個比較理想的平臺。當時是從這個角度去考慮的,自行車控制並不是很難,我們只是想展示一種新的模式。

類腦計算的未來:打破馮諾依曼架構

提問:未來的人工智慧或者類腦計算,和現有的馮諾依曼架構有什麼聯絡?它們是否會朝著人腦的形態演變?

這是一個很重要的問題,現在的半導體行業,就有一個基本的趨勢,包括 18 年的圖靈獎,也是頒給了做計算架構研究的研究者。

試圖讓 GPU 提高效能,有兩個方向,第一是把電晶體做小,就是物理微縮,遵循摩爾定律。但這兩年大家意識到摩爾定律開始失效了,相關的發展越來越慢,總有一天會無法做小了。

763e38455dc3408890829bdfe52979cb.png
摩爾定律正在減緩

另一個方向就是做計算架構,設法通過設計框架,讓計算單元、儲存單元、通訊,這個三部分都發揮很高的效率。

人腦就很神奇,通過學習的積累,每一代人知識都在增長,我們要去借鑑這種知識的演化。

上個世紀,通用處理器的發展基本上遵循摩爾定律,因為以前電晶體能越做越小,計算架構的發展被一定程度埋沒。現在摩爾定律受阻以及 AI 這類需要追求高處理效率的應用,使得計算架構的研究又重新受到重視,未來十年也將是專用處理器的黃金時期。

對於類腦研究,大家問得最多的問題是,類腦計算能幹什麼?

這是一個很致命的問題,現在很多做人工智慧或做腦科學的人,都不清楚其背後的機理是什麼。就拿腦科學來說,有三個層次目前還比較脫節。

第一個是神經細胞究竟如何工作。這個問題,很多醫學家或者生物學家,都還在進行艱難的探索研究。

第二個是神經細胞之間是怎麼連線的,大腦裡面有 10 的 11 次方量級的神經細胞,它們是如何聯絡起來的,也比較難理清楚,需要藉助光學和物理學的力量。

最後,還要知道它們怎麼學習的,這也是最難但最重要的一個問題。

每一個方面都有一個鴻溝,但困難不能成為放棄探索的理由。如果毫不作為,就一點機會都沒有。在每個層面上做一些事情,最後總是會誕生一些新的東西,而後不斷地進行迭代。

WechatIMG1480.jpeg
圓桌論壇現場,左二為鄧磊博士

如果要等到腦科學搞清楚了再去進行,那就晚了,別人肯定就超前了。

比如做 CPU 這件事情,就不像大家想的那麼簡單,不是說中國人不聰明,發動機也是一樣,原理大家都懂,但是要想做好卻不容易,工程難度和技術積累非一日之功。

其中一個原因在於,許多東西都有很大的產業鏈,如果最開始沒有去做,就失去了很多試錯的機會。

這個領域不會實現快速的突破,只能去腳踏實地進行。至於以後,現在的人工智慧、強人工智慧,人工智慧 2.0 和類腦計算,我覺得它們最後都會殊途同歸,因為他們都源於大腦,只是導向不同而已。

提問:前段時間在 Nature 上還有另外一篇文章,研究人員畫出了線蟲全部神經元的完整圖譜,以及全部神經元之間所有的 7000 個連線。

提問:這個工作和類腦研究有沒有聯絡?能不能用現有技術,或者馮諾依曼的 CPU 去模擬線蟲這個工作,另外接下來 3 到 5 年,我們可以期待什麼樣的事情發生?

66180594_1279943782174115_2970465720051894983_n.jpg
科學家繪製的線蟲腦部神經元連結

我看過那個線蟲結構的研究,它對類腦研究有很大的影響。其實現在的 AI 模型,不管是類腦計算,還是人工智慧,它的連線結構大多還是脫胎於現在的層級深度神經網路,實際上是十分粗淺的。

我們大腦不是一個簡單的層狀網路,大腦更像一個圖。而且各個腦區之間的聯絡,是很複雜的。這個研究的意義,在於讓我們思考是否能借鑑這種連線方式。

之前有一個觀點,是說在神經網路的結構中,連線結構的作用實際上大於每一個連線的具體權值,也就是連線的意義是大於每一個引數的意義。

卷積神經網路為什麼能夠比以前的神經網路要厲害一些,就在於它的連線結構不同,所以它提取特徵的能力就會強一些,這也說明連線結構會導致結果的變化。

能不能在傳統的處理器上去做到這個成果,其實是有點困難的。馮諾依曼架構裡面最典型的是,需要一個很明確的儲存單元,一個很明確的計算單元。

3609f90a-faaa-529c-b41b-e97510e6b1fd_MovAPBn.png
傳統的馮諾依曼架構示意圖

但我們大腦裡面沒有那麼明確的界限,雖然我們有海馬體專門負責長期記憶,但從神經元網路層面來講你並不清楚大腦哪一團細胞一定就是儲存,哪些只是計算。大腦更像是一個混沌的網路,計算和儲存難以區分,所以從這個角度上來講的話,很難用以前傳統的那些晶片或者處理器的技術來做。

所以我們必須要開發一些新的非馮諾依曼的方法,用新的架構方式支援,去做類腦方式的研究。

比如 2018 的圖靈獎,就宣告專用領域的晶片會越來越火。英偉達現在推廣的,就是異構架構,在一個平臺裡面有各種各樣的小的晶片 IP 核,可能這個就類似人的腦區一樣。

所以,現在不再像從前用一個 CPU 解決所有的事情,也沒有一個晶片能夠高效解決所有的事情。未來會逐漸走向各種高效專用的發展技術,這是目前的一個趨勢。

WechatIMG1479.jpeg
鄧磊認為,未來類腦計算和 AI 研究最終會殊途同歸

現在大家對腦科學或者類腦計算的理解,沒有人工智慧那麼透徹,有一個很重要的原因,是投資者以及產業界,還沒有過多的介入。

因此,不管是資料算力還是工具,都難以做起來。類腦計算就處於一個這樣的初級階段,相信以後當越來越多的大學和公司投入進來,就會明朗很多。

提問:類腦晶片的架構,和傳統的馮諾依曼架構有哪些方面的不同?

將類腦晶片進行拆分,可以分為類腦和計算。在類腦的角度上,它不是僅有 AI 裡面的深度神經網路,還結合了一些腦科學的計算。

從架構方面,馮諾依曼體系中有一個瓶頸,整個半導體行業的架構其實都在面臨這個難題:儲存的容量越來越大,它速度就越來越慢,

如果想擴大規模又想高速,就不可能實現。基本上做設計架構的人,多是在研究優化儲存層級,怎麼樣讓它變快。

天機和其他架構不一樣,沒有用到那些需要擴充套件的儲存器。天機晶片更像一個大腦,相當於細胞連成了很多小回路,小回路又擴充套件成了很多網路,最後構成功能區和系統,它是一個容易擴充套件的結構,而不是像 GPU 那樣。

014345lvzfftvz7h31sthm.jpg
天機晶片單片和 5×5 陣列擴充套件板

天機芯的眾核去中心化架構決定了,它能比較容易地擴充套件成大的系統,沒有儲存牆的約束,實際上是存算融合的非馮諾依曼架構。這是在架構層面和現有處理器最大的一個區別,前面是模型層面的區別,基本上就這兩大類的區別。

相關文章