Yann Lecun官宣Facebook進軍晶片領域野心,自家“ASIC”晶片開發中

大資料文摘發表於2019-02-20

Yann Lecun官宣Facebook進軍晶片領域野心,自家“ASIC”晶片開發中

大資料文摘出品

來源:FT.com

編譯:橡樹_Hiangsug、蔣寶尚

Facebook決定開發自己的人工智慧晶片。

這也意味著Amazon和Google將要遇到 “AI晶片戰”的強勁對手。

Facebook的首席人工智慧科學家,現代人工智慧領軍人物Yann LeCun最近在接受英國“金融時報”採訪時首次表示,Facebook希望與多家晶片公司合作開展專案,公司最近也曾宣佈已與英特爾展開合作。但他強調,Facebook也在著手開發自家的“ASIC”晶片,服務於本公司的人工智慧專案。

“眾所周知,Facebook將在必要時搭建自己的硬體裝置——就像現在,我們正在開發自己的專用積體電路(ASIC)。前行之路必將坎坷,但我們有信心可以戰勝一切困難。”

這是Facebook首次官方宣稱其進軍晶片領域的野心。談及未來公司晶片開發的著力點時,LeCun回答道:“計算機底層系統仍有很大的發展空間。”

專用AI晶片如火如荼發展

Yann Lecun官宣Facebook進軍晶片領域野心,自家“ASIC”晶片開發中

全球AI晶片創業公司融資交易數表

英偉達為各大AI資料中心圖形處理器的主要供應商,如今正面臨大型資料中心客戶減少的短期壓力,而Facebook進軍AI晶片的這一決定對英偉達來講又將是一個長期的挑戰。

以往的AI晶片大多為通用處理器,但現如今,業界對AI晶片的需求發生了轉變,更多人希望“秒速低耗”地完成一項單任務。這使得專用AI晶片如火如荼發展,不僅像谷歌、亞馬遜和蘋果這樣的科技巨頭大規模展開投資,許多創業公司也試圖分得一羹,大舉進入這場晶片大戰。

業界對晶片設計和系統架構的關注持續升溫,從另一方面反映出“算力”的重要性。只有基本計算能力獲得根本性的突破,AI的發展才不會進入死衚衕。正如LeCun所講,如果縱觀人工智慧的發展歷史,我們不難發現,研究人員在這一領域提出突破性見解總是在硬體得到大發展之後。

談及阻礙人工智慧發展的因素時,LeCun講道:“在相當長的一段時間裡,人們總是忽略非常明顯的方法。” 以當今深度學習系統中的一項核心技術“反向傳播”為例,簡單來講,反向傳播是通過重新計算已有的計算結果進行優化的一種演算法,這其實是基於早期研究的一個非常明顯的擴充方法,但這項技術只有等到計算硬體得到飛速發展後的20世紀90年代才得到廣泛應用。

其實,Facebook並非第一次設計硬體,公司曾為資料中心裝置設計過新的解決方案並將其“開源”供其他人使用。LeCun表示,此次晶片設計將採用同樣的方法:“技術要回饋於大眾。”

Facebook的深度學習系統在影像和語言識別等方面取得了較大進展,後續的研究將繼續以深度學習為核心,著力設計更優質的神經網路。

不惜一切代價地降低功耗

三十年前LeCun曾工作於AT&T貝爾實驗室,在此期間他建立了第一個基於動物視覺皮層工作原理的“卷積”神經網路,現如今,這種技術在深度學習系統中得到了大範圍的推廣和應用。

Yann Lecun官宣Facebook進軍晶片領域野心,自家“ASIC”晶片開發中

Facebook的首席人工智慧科學家Yann LeCun在建立神經網路時使用的是監督學習。實現監督學習使用需要大量的資料進行訓練,且在像Facebook這樣規模公司,維持日常計算需要消耗大量的電力。Facebook每天都會對上傳到其核心服務的所有圖片進行大量的實時分析,完成人臉識別、提取場景標籤和鑑別不良資訊等功能,而這些圖片總數高達2-3億。 

LeCun表示,Facebook正“不惜一切代價地降低功耗並改善延遲”,以加快系統的處理速度。他繼續補充道,實現大規模實時視訊監控急待新的神經網路支援。為此,Facebook也仍在積極探索新的神經網路架構,以模仿更多面的人類智慧,實現更自然的互動。

LeCun表示,Facebook正斥巨資開發 “自我監督”系統。“自我監督”系統不僅能夠得出與他們接受過培訓的資料直接相關的結論,還能對周遭世界做出更廣泛的預測——人類正是通過對所處世界的理解來適應新環境的。

LeCun講道:“從人工智慧的應用來看,Facebook對‘有常識’的智慧數字助手非常感興趣,這些數字助手擁有一定的背景知識,你可以就任何話題與之暢談。”教予計算機“常識”的開發設想仍處於初級階段,而且使機器擁有更高階的智慧短期內也根本無法實現。“如果想要機器像人或動物一樣理解環境與行為之間的互動,我們需要確認更多的因果關係。”

當前挑戰:不確定情況下預測未來

Facebook有一項工作為自適應神經網路的研究:這種神經網路可根據輸入的資料自行調整網路架構,使其在面對現實世界的變化時更加靈活;另一種解決方案更加“簡單粗暴”:規定神經網路在解決某一問題時僅 “啟動”事件相關的神經元,這種方法類比人類大腦的運作方式(事件相關電位),可以大大降低功耗。研究工作還包括將計算機儲存器新增到神經網路中,以便在與人進行“對話”時可以保留更多資訊,使上下文更加連貫。

神經網路效能的進展很可能對支撐其計算的晶片產生連鎖反應,加劇AI晶片公司間的競爭。 LeCun講道,谷歌的TPU已成為最強大的機器學習專用晶片,TPU的使用仍相當普遍。

 “但是他們設計晶片所基於的假設不一定適用於未來的神經網路架構。” 儘管矽晶片的設計具有很強的靈活性,但在另一方面,這種靈活性帶來一些弊端。微軟計劃在其所有資料中心的伺服器中鑲嵌FPGA(現場可程式設計門陣列,一種可程式設計的矽晶片),雖然它在使用時更加靈活,但在處理大量資料方面效率較低,使之較針對特定任務優化的晶片處於劣勢。

相關報導:

https://www.ft.com/content/1c2aab18-3337-11e9-bd3a-8b2a211d90d5

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31562039/viewspace-2636502/,如需轉載,請註明出處,否則將追究法律責任。

相關文章