類腦計算:讓人工智慧走得更遠

技術小能手發表於2018-09-12

像人一樣思考,這是人們對人工智慧和機器人的期待。大踏步前進的人工智慧,似乎走到了十字路口。


“機器綜合智慧水平和人腦相差較大,機器學習需要較多人工干預,不同人工智慧模態之間互動協同較少……”近日,在香港召開的第S43次香山科學會議上,與會科學家細數當前人工智慧發展面臨的瓶頸。


解鈴還須繫鈴人,人工智慧的發展也不例外。科學家意識到,想要走得更遠,人工智慧還要回到出發的地方,那便是人類智慧。


丨神經科學提供基礎


“以深度學習為代表的機器學習方法在視聽覺感知等具體問題上媲美甚至超越人類的水平。”會議報告中,作為一名神經科學家,中科院神經科學所研究員蒲慕明院士為人工智慧在過去幾十年的發展點贊。不過,他同時看到,與人腦的學習能力相比,機器學習在可解釋性、推理能力、舉一反三能力等方面存在明顯差距。


讓機器向人學習,是提升“智慧”水平的重要方向。會議執行主席、香港科技大學副校長葉玉如院士指出:“目標是在多個層面,理論上模擬大腦的機制和結構,開發一個更具有普遍性的AI以應對包括多工、自學習和自適應等方面的挑戰。”


“受腦啟發”是人工智慧最重要的發展方向。近年來,腦科學研究正在從傳統的認識腦、瞭解腦向保護腦再向增強腦、影響腦的過程發展,即完成從“讀腦”到“腦控”再到“控腦”的轉換。學習大腦的資訊處理機制,建立更強大和更通用的機器智慧是非常有前景的。通過多學科交叉和實驗研究獲得的人腦工作機制更具可靠性,有望為人工智慧未來發展提供基礎。


另一方面,人工智慧可以對神經學和腦科學在資料收集、標註和建模等方面提供技術支援促進腦科學的發展。


丨打破“馮·諾依曼架構”


面向通用的人工智慧離不開類腦計算晶片。清華大學精密儀器系教授、類腦計算中心主任施路平表示:“作為一種借鑑人腦儲存處理資訊方式發展起來的新技術,類腦計算將是人工通用智慧的基石。”


打破“馮·諾依曼架構”成為借鑑人腦資訊處理方式的重要途徑。據瞭解,在“馮·諾依曼架構”中,計算模組和儲存單元互相分離,CPU在執行命令時必須先從儲存單元中讀取資料。每一項任務,如果有十個步驟,那麼CPU會依次進行十次讀取、執行,再讀取、再執行,時間和功耗都花費在資料讀取上,限制了資料處理能力。這與大腦處理大量外界資訊卻能耗極低的現象大相徑庭。


類腦計算有望把類似大腦的突觸做到晶片上。今年5月,北京大學電腦科學技術系教授黃鐵軍課題組聯合多家單位實現了靈長類視網膜中央凹神經細胞和神經環路的精細建模,提出了模擬視網膜機理的脈衝編碼模型,研製成功仿視網膜晶片。


“視網膜超速全時視覺晶片像生物視網膜一樣採用神經脈衝表達視覺資訊,脈衝發放頻率‘超速’人眼百倍,能夠‘看清’高速旋轉葉片的文字,‘全時’是指從晶片採集的神經脈衝序列中重構出任意時刻的畫面。”黃鐵軍介紹說,“這是實現真正機器視覺的基礎,有望重塑視覺資訊處理體系,為無人駕駛、機器人、視訊監控等領域帶來變革。”


不過,神經突觸晶片還在實驗室階段,尚未走向實用。與會專家認為,類腦計算是一場令人興奮又望而生畏的艱難挑戰。


丨尚存三大隱憂


《中國AI發展報告2018》顯示,自2013年以來,全球和中國人工智慧行業投融資規模都呈上漲趨勢。與會專家注意到,目前國內跟人工智慧有關的公司有4000多家,但是能夠得到投資人青睞或關注、願意投資的公司,卻不到三分之一。過度依賴國外現成原始碼、商業應用路徑不明確及專業人才稀缺是當前人工智慧企業的三大隱憂。


自2015年以來,谷歌、臉書、亞馬遜等紛紛釋出機器學習的開源軟體,導致我國企業採用大量現成的原始碼。在科學家看來,這彷彿在起跑線上喪失優勢,工藝再精深也是在別人的體系中做零部件的更新改造。對此,應重點突破基礎領域,針對人工智慧底層技術,加強對以深度學習為代表的底層演算法模型的深入研究。


而對於商業應用路徑不明確,專家建議企業不要太盲目,應儘快找準發力方向,AI專案商業應用場景能否落地是其成敗的關鍵,快速積累核心技術優勢,打造商業模式,才能做出真正有市場需求的產品。同時,應堅持實事求是的發展路線,避免人工智慧熱潮演變成一次“大躍進”,透支研究和實業資本資源。


原文釋出時間為:2018-09-11
本文作者:甘曉

本文來自雲棲社群合作伙伴“人工智慧學家”,瞭解相關資訊可以關注“人工智慧學家”。


相關文章