【AI晶片】應用和架構創新雙輪驅動AI晶片發展報告;AI的豐富應用與晶片發展
近三個月,AI晶片成為手機圈熱詞。各大手機廠商蜂擁而至、齊聚一堂,奏響了屬於AI晶片的命運交響曲。人工智慧將成為一種全新生產要素,與資本、勞動力擁有同等重要地位,將成為拉動中國經濟增長的新動力。
今年的政府工作報告要求推動積體電路產業發展。俗稱“晶片”行業的積體電路產業,其重要性可以用“工業糧食”來形容。作為全球最大的電子產品製造國及大眾消費市場,2017年,我國積體電路進口額卻高達2000多億美元。
金準資料研究報告顯示,2021年,人工智慧晶片市場總價值將達200億美元。到2021年前,全球人工智慧晶片年均複合增長率將超過54%。持著各自的技術路徑,晶片領域的巨頭們紛紛入局這場硝煙尚未完全燃起的戰爭。
晶片是資訊科技的制高點。金準人工智慧專家認為,晶片雖小,但它可能是這個星球上最複雜的東西,因為它把手機需要的大多陣列件都裝進去了,對穩定性要求極高。
AI晶片到目前為止還沒有一個準確的定義,廣義的講,滿足人工智慧應用需求的晶片都可以稱之為人工智慧晶片。其實目前大部分的人工智慧應用場景下,我們還是使用GPU、FPGA等已有的適合平行計算的通用晶片來實現人工智慧演算法。
一、積體電路晶片是實現人工智慧的當然載體。
目前,AI晶片發展面臨著兩個現實的問題:一是人工智慧新演算法層出不窮、尚未固定;二是現在一個演算法對應一個應用,沒有一個演算法能夠覆蓋所有應用,也沒有出現一個殺手級的AI應用。因此相對應的,我們現在打造AI晶片也需要解決兩大要素,第一要這款晶片要適應演算法的演進,第二要做一個創新的晶片架構,使其能夠適應所有的應用。
沿循著打造AI晶片的兩大要素思考下來,一種新型的晶片技術被推到了聚光燈下——“軟體定義晶片”,也稱可重構計算。
“軟體定義晶片”顧名思義就是讓晶片根據軟體進行適應與調整,這是一項專用晶片架構設計上的創新,簡單來說就是將軟體通過不同的管道輸送到硬體中來執行功能,使得晶片能夠實時地根據軟體/產品的需求改變功能,實現更加靈活的晶片設計。硬體跟著軟體不斷變化,既能適應演算法的演進,又能適應多個不同應用。
去年的時候,由美國國防部先進計劃署(DARPA)推動的電子產業振興計劃(ERI)針對後摩爾定律(post-Moore’s-law)時代的新材料、架構與設計流程,其中一個課題就是軟體定義硬體(software define hardware)。
今天的AI應用涵蓋了所有方面,無行業不AI,包括人臉識別、語音識別、機器翻譯等等。而晶片是實現AI的載體,無論是CPU、GPU、還是CPU加FPGA,或者其它出現的多個晶片平臺,所有這些東西都離不開晶片。所以講一句話,無晶片不AI,做AI一定要有晶片,晶片是不可或缺的基本內容。
既然人工智慧晶片如此重要,那麼怎麼實現它?首先金準人工智慧專家提出AI面臨兩個現實的問題:第一、演算法仍在不斷演進,新演算法層出不窮;第二、一種演算法對應一種應用,沒有統一的演算法。顯然我們需要找到一個架構能夠適應所有演算法,而不是一個應用做一個晶片。
二、AI晶片的若干關鍵要素
現在的應用雖然複雜程度不一樣,但無一例外都使用的是一個專用的神經網路,在這樣的情況,晶片需要實現一個具備深度學習能力的引擎來完成運算工作。這種情況下,金準人工智慧專家認為AI晶片需要一些計算要素:第一是具有可程式設計性,能夠適應演算法的演進和應用的多樣性;第二是架構的動態可變性,能夠適應不同的演算法,實現高效計算;第三是高效的架構變換能力,能夠實現低開銷、低延遲;第四是高計算效率,避免使用指令這類低效率的架構;第五是高能量效率,目前的應用要求計算能效目標達到大概每瓦10 Tflops,即每秒完成10萬億次的運算。並且某些應用功耗需要低於1mW,有些應用需要識別速度大於25fps;第六是低成本進入家電和消費電子;第七是體積小,能夠裝載在移動裝置上;同時開發需要簡易,不需要再晶片設計方面的知識。因此,我們需要探索架構上的創新。
目前的CPU+SW、CPU+GPU、CPU+FPGA、CPU+ASIC的做法均不是理想的架構。
三、幾種晶片架構的技術特點
人工智慧晶片,目前有兩種發展路徑:一種是延續傳統計算架構,加速硬體計算能力,主要以3種型別的晶片為代表,即GPU、FPGA和ASIC,但CPU依舊發揮著不可替代的作用;另一種是顛覆經典的馮諾依曼計算架構,採用人腦神經元的結構來提升計算能力,以IBMTrueNorth晶片為代表。由於人腦神經元晶片距離產業化仍然較遠,我們著重討論在人工智慧時代GPU,FPGA和ASIC的應用和未來發展可能性。
按照處理器晶片的效率排序,從低到高依次是CPU、DSP、GPU、FPGA和ASIC。沿著CPU->ASIC的方向,晶片中電晶體的效率越來越高。因為FPGA&ASIC等晶片實現的演算法直接用電晶體閘電路實現,比起指令系統,演算法直接建築在物理結構之上,沒有中間層次,因此電晶體的效率最高。CPU&GPU需要軟體支援,而FPGA&ASIC則是軟硬體一體的架構,軟體就是硬體。
而按照電晶體易用性排序是相反的。從ASIC到CPU,晶片的易用性越來越強。CPU&GPU的程式設計需要編譯系統的支援,編譯系統的作用是把高階軟體語言翻譯成機器可以識別的指令(也叫機器語言)。高階語言帶來了極大的便利性和易用性,因此用CPU&GPU實現同等功能的軟體開發週期要遠低於FPGA&ASIC晶片。
四、應用和架構創新是發展人工智慧晶片的必由之路
做應用確實很難。從感知、傳輸到中間的處理,一直到後面的傳輸和執行,都不開的基本架構。反之一個感測器,通過執行器,傳輸中間有很發散的網路,基本的邏輯在這裡。
計算無處不在,計算本身是我們架構基本前提。但是由於計算非常豐富,我們不知道人腦怎麼完全計算,因此我們只好通過這種我們知道的方式,構建一個所謂能夠具備智慧處理能力的晶片,一個是智慧的軟體和硬體。
智慧軟體包含這幾方面的內容:形成知識能力、組織能力、思維推理能力。這些東西不是晶片做的,是軟體做的。晶片更多地是提供計算的平臺、多工並行的能力、極高的能效、和靈活高效的儲存與實時動態能力。因此,實現智慧的核心其實是軟體不是晶片,晶片不過是支撐智慧的基礎而已。金準人工智慧專家認為我們需要改變一些思路,軟體在AI 晶片的設計上至關重要。
由於傳統晶片架構是固定的,需要讓軟體去適應晶片;可實現智慧的核心其實是軟體不是晶片,晶片只是支撐智慧的基礎而已。因此,用軟體定義晶片,硬體跟著軟體不斷變化,既能適應演算法的演進,又能適應多個不同應用。
“軟體定義晶片”顧名思義就是讓晶片根據軟體進行適應與調整,這是一項專用晶片架構設計上的創新,簡單來說就是將軟體通過不同的管道輸送到硬體中來執行功能,使得晶片能夠實時地根據軟體/產品的需求改變功能,實現更加靈活的晶片設計。硬體跟著軟體不斷變化,既能適應演算法的演進,又能適應多個不同應用。
去年的時候,由美國國防部先進計劃署(DARPA)推動的電子產業振興計劃(ERI)針對後摩爾定律(post-Moore’s-law)時代的新材料、架構與設計流程,其中一個課題就是軟體定義硬體(software define hardware)。打造可實時重新配置的軟體和硬體,使其具備ASIC的效能表現,但不必在資料密集計算中犧牲可程式設計性。也就是說讓硬體的功能和架構跟著軟體實時變化,而所謂的實時所謂的即時指的是執行300~1000納秒內。
那麼FPGA可以用來做一個簡單的驗證系統,但是實用系統?所以我們說FPGA無法承擔軟體定義晶片(Software defines Chip,SdC)的任務。第一就是細粒度,由於要實現位元級的運算,運算顆粒度必須為細粒度。FPGA顆粒度是細力度,所以配置資訊量非常大,需要幾兆到十幾兆位元組,需要十幾毫秒甚至更長時間。同時一旦配置完畢,不可更改。如果要改變FPGA的功能,只能下電或線上重新載入配置資訊。FPGA的晶片面積效率很低,只有5%,千萬面積的FPGA實現幾十萬,能量效率很低,而且功耗很大。同時FPGA需要非常先進的工藝,且需對工藝進行特別調整,應用者還必須具備電路設計知識和經驗。最後就是FPGA成本非常高。那麼什麼樣的系統可以完成SdC?FPGA也不行。
但如果我們把軟體分成若干塊,一塊一塊搬過去,第一塊執行完了以後,執行第二個模組,然後第三個模組搬過去,回來計算第四個、第五個、第六完成這樣。這要求我們的硬體結構和功能必須是動態的,隨時可以改變的。這就是軟體定義晶片的基本概念。
至於工作難點則是怎麼很快的實現它?我們過去10年當中的努力就是解決這個問題,圖裡的計算架構是非常經典的架構,這兩者一個是所謂控制單元劃分的內容,逐步送進去執行,要求根據要求配置計算單位並且完成執行。
問題是,要出現完全可重構的資料通道和可完成變成的控制單位,這樣做到可變化的。這與傳統結構是有差別,經典的計算模式是弓形的,可傳播計算是函性的。經典架構當中,軟體硬體不變,而在我們現在的架構當中,硬體和軟體都在做動態的選擇性的改變,經典架構用高度複用的方式,降低它的成本,而在我們這邊是冗餘應用。
我們並未改變計算模式,在馮諾依曼架構之下,我們實現AI晶片的時候,可以把硬體按照AI的演算法來不停的變換,以達到最佳的計算效率,在最下面這塊,我們從AI的應用定義採用深度神經網路,再來決定硬體的功能,金準人工智慧專家認為這樣的結構是一個最佳的方式。
人工智慧晶片,目前有兩種發展路徑:一種是延續傳統計算架構,加速硬體計算能力,主要以3種型別的晶片為代表,即GPU、FPGA和ASIC,但CPU依舊發揮著不可替代的作用;另一種是顛覆經典的馮諾依曼計算架構,採用人腦神經元的結構來提升計算能力,以IBMTrueNorth晶片為代表。由於人腦神經元晶片距離產業化仍然較遠,我們著重討論在人工智慧時代GPU,FPGA和ASIC的應用和未來發展可能性。
按照處理器晶片的效率排序,從低到高依次是CPU、DSP、GPU、FPGA和ASIC。沿著CPU->ASIC的方向,晶片中電晶體的效率越來越高。因為FPGA&ASIC等晶片實現的演算法直接用電晶體閘電路實現,比起指令系統,演算法直接建築在物理結構之上,沒有中間層次,因此電晶體的效率最高。CPU&GPU需要軟體支援,而FPGA&ASIC則是軟硬體一體的架構,軟體就是硬體。
而按照電晶體易用性排序是相反的。從ASIC到CPU,晶片的易用性越來越強。CPU&GPU的程式設計需要編譯系統的支援,編譯系統的作用是把高階軟體語言翻譯成機器可以識別的指令(也叫機器語言)。高階語言帶來了極大的便利性和易用性,因此用CPU&GPU實現同等功能的軟體開發週期要遠低於FPGA&ASIC晶片。
五、人工智慧晶片決勝的主戰場在推理環節
從應用場景來看,人工智慧晶片主要應用在訓練(training)和推理(inference)兩個環節。訓練環節的作用是指利用海量資料(603138),選擇合適的訓練方法,訓練出一個人工智慧模型。訓練環節最關心的指標是速度快。國內外的人工智慧巨頭公司都建立了龐大的GPU叢集,以最快速度處理海量資料訓練、驗證模型的有效性。
而線上推理環節也就是人工智慧模型的實際應用環節,是指利用訓練出來的模型來線上響應使用者的需求。推理環節又分為兩個場景,一個是在雲端資料中心響應使用者需求,一個是在前端智慧裝置響應使用者需求。
在雲端資料中心,各家公有云服務廠商都紛紛部署了高效能雲端計算伺服器,應用於視訊編解碼、深度學習、科學計算等多種場景。隨著人工智慧技術的發展,未來雲端資料中心應用場景還會有極大的豐富。
而在前端智慧裝置,受模型演算法以及計算能力的限制,目前應用還不多。但是基於實時性及隱私安全要求,很多應用都會在前端部署,未來市場空間非常巨大。我們以無人駕駛和智慧服務機器人為例說明。
在無人駕駛中,無人駕駛汽車需要實時處理來自鐳射雷達、攝像頭等多路感測器傳輸的海量資料並作出實時反映。如果通過雲端反饋處理,則必然會增加時延和不確定性,導致無人汽車安全性下降。因此,無人駕駛中必須將計算平臺部署在前端。
在智慧家居中,未來包括智慧服務機器人在內的智慧家居裝置都需要具備實時環境感知能力及語音語義理解能力等,這些也都需要強大的計算平臺作為底層支撐。而基於私密性考慮,不可能把智慧家居的資料都上傳雲端處理。因此,智慧家居的應用也需要計算平臺部署在前端裝置中。
與訓練環節不同,推理環節更重視效能功耗比。雲端資料中心對高併發更加重視,而前端智慧裝置則對低延時更加重視。
從市場潛力來看,未來市場規模最大的肯定是推理環節。人工智慧的發展,首先需要訓練出足夠好的演算法模型。而當人工智慧真正落地應用時候,則需要在大量的雲端資料中心或者前端智慧裝置上部署應用。
以人臉識別為例,我們需要在GPU叢集中經過多次訓練才能得到一個足夠好的人臉識別演算法模型,而當把人臉識別應用於實際應用時候,我們需要將模型部署在成千上萬臺伺服器進行實時人臉識別,甚至在上億臺攝像機中前臵部署部分演算法進行預處理。由此可見,推理環節才是未來最大的潛在市場,也是人工智慧晶片決勝的主戰場。在推理環節還遠沒有爆發的時候。未來勝負尚未可知,各家技術路線都有機會勝出。
總結
近兩年來,深度學習技術的成功突破,讓人工智慧領域重獲新生,興起了第三次發展浪潮。但是隨著人工智慧推動機器人、自動駕駛、智慧硬體等多領域實現了全新變革,影響力愈加強勁,儼然已成為全球未來主流趨勢的情況下,晶片的地位再度提升,競爭也不斷加劇。
應用領域的確立是AI領域的確立前提,但是AI的殺手級應用還沒有出現,因此我們說AI的發展有很長的路要走。未來能否出現像通用CPU這樣獨立存在的通用AI處理器?如果存在的話,它的架構是什麼樣,如果不存在,今天的已滿足特定應用的晶片恐怕只能做IP核了,AI公司何去何從呢?這些問題的謎底將在AI晶片產業的發展中逐一解開。
作為產業制高點,人工智慧晶片可應用範圍廣,如智慧手機、醫療健康、金融、零售等,發展空間巨大。隨著人工智慧時代的到來,人工智慧晶片更是迎來了大展身手的時機。
AI的豐富應用與晶片發展
主講人:宋繼強 | 英特爾中國研究院院長
主辦方:北京大學人工智慧創新中心
媒體合作:量子位
【視訊回放合集】
https://c.m.163.com/news/s/S1521443845851.html
週三晚,北京大學“人工智慧前沿與產業趨勢”第四講,本期英特爾中國研究院院長宋繼強授課主題為“人工智慧的豐富應用與晶片發展”,分享計算硬體與AI晶片的發展現狀及趨勢。
課程導師:雷鳴,天使投資人,百度創始七劍客之一,酷我音樂創始人,北京大學信科人工智慧創新中心主任,2000年獲得北京大學計算機碩士學位,2005年獲得史丹佛商學院MBA學位,同時也是“千人計劃”特聘專家。
主講嘉賓:宋繼強,英特爾中國研究院院長,於2008年加入英特爾中國研究院任清華大學-英特爾先進移動計算中心應用研發總監,是創造Intel Edison產品原型的核心成員。領導研發了基於Edison的智慧裝置開發套件來促進Edison技術在創客社群的普及,發明了稱為互動式瓷器的新的裝置類別。他目前大力推動基於英特爾技術的人工智慧技術、智慧機器人互動技術和智慧基礎設施研究。
人工智慧的第三次浪潮
這次人工智慧的興起是第三次人工智慧的熱潮,跟前兩次很相似:先從學術界突破,發現人工智慧在某些方面能夠比人做得強,再去產業界落地應用,而產業的應用只有在能夠大規模地落地之後,才能真正地用產業來推動研究,才能形成一個正迴圈。前兩次熱潮過後進入了冬天正是因為沒有完成這個正迴圈。而這次擁有絕好的機會,我們非常有信心可以通過各種各樣的應用,通過晶片方面的探索,把這波浪潮持續下去,持續十年二十年甚至三十年。
人工智慧的定義有好幾種,其中一種被大家廣泛認可的是:讓一個演算法、系統、或者機器,通過模仿人的智慧的方式來對外界的輸入產生反應。也就是用人工的演算法、程式模擬人的反應。
人工智慧裡面會涉及到很多學科,比如神經學。研究範圍也很廣,涉及計算機視覺、自然語言處理、專家系統、控制系統等。
當前人工智慧發展的重點
人工智慧現在發展的重點,從應用層面出發,應用價值最大最廣的,應該是無人駕駛、健康醫療這種覆蓋面很廣的應用,因為它和每個人的日常生活都息息相關。此外,像零售金融這種應用,雖然日常身邊不會有很大的感受,但實際上在淘寶或者京東的業務裡面已經有很多人工智慧的應用。金融上,某些銀行的理財服務,會根據客戶情況,自動推薦一些理財服務給你,這就是智慧投顧。
演算法方面也仍然需要持續不斷地提高。
一是用比較成熟的深度學習、深度神經網路的演算法加上一些別的演算法——基於知識的、基於模型的或者基於推理的,來彌補現在神經網路演算法的不足,讓它能夠更好地滿足業務的可靠性要求。
二是考慮部署成本,在保證效果的同時,怎麼去減少資源成本。在硬體方面,這是非常重要的。還在科研階段的時候,我們可以用各種方式做模擬、做演算法驗證,但到了部署在真正場景的時候,需要考慮到各個場景裡需要資源的功耗、體積、價格要求等等。而晶片是基礎,不同領域對晶片的要求也不一樣。
從應用的角度來看,我們可以期望人工智慧在很多方面都帶來體驗升級。除了現在幫助我們在看世界、聽世界等這些方面達到提升之外,在最後希望可以放心地把一些決策都交給人工智慧。無人駕駛就是一個典型例子,就是人類在開車時把很多決策都交給了人工智慧。雖然這裡面涉及到信任度、安全性等很多問題需要考慮,但前景是很好的。
如何看待人工智慧
現在對人工智慧一直有兩種聲音:樂觀的和消極的,那麼對人工智慧應該怎麼看待呢?我個人非常贊同Rodney Brooks的觀點:AI和人對立在短期內是不會發生的,通用性也不會達到人的水平。舉個例子:現在AlphaGo很牛,下圍棋下得很好,但是它下軍棋肯定下不過一個小孩,換一個領域它就更加不行了。
Rodney Brooks是人工智慧行為學派的傑出代表,他參與建立了iRobot公司。行為學派不關注具體的演算法、不關注模型,它關注每次迭代都有一個完整的系統、能夠在真實的環境裡完成一定的任務,所以他們也可以說是系統優化學派。
他認為人工智慧在近十年主要在兩大方向能給人提供最大價值:第一,五年左右(Rodney Brooks說這話大概在前年左右),人工智慧會在輔助駕駛和自動駕駛方面帶來很大的價值;第二,讓機器人來幫助我們解決社會的重大問題,比如養老。
這次人工智慧碰上了好時代
計算力的重大突破
為什麼說這一次人工智慧的浪潮碰上了好的時代呢?因為這次人工智慧趕上了計算力的重大突破時期。計算力的突破主要靠最近這十年摩爾定律的發展,連深度學習這麼耗時的計算都能讓它在有限的時間內完成訓練迭代,以達到可用的水平。
演算法上的創新,加上很多資源的支援,參與的科研人員也非常多,這個事情就會發展得很快。到2020年,預估對AI計算力的需求會增長12倍,這個是在17年預估的。而這大部分會在資料中心增長。
AI的普及
現在很多AI仍然在To B的業務裡面發生作用,比如金融領域、零售領域的後臺、搜尋網站的後臺、新聞網站的後臺,有很多AI演算法在工作,如果它能夠很順利地往醫療、個人日常生活發展,就能夠普及。這個普及的要求是價效比要高,這對演算法、晶片都提出了很高的要求。
未來AI會在四大方面發生作用
對於AI能夠在哪些方面發生重大作用,我們有一個總結,有四個方面:
第一是加速。
深度學習
深度學習在影像識別、語音識別上應用使其能力變得很強,在某些具體領域甚至超過了人。這裡面的加速在哪裡?它可以在某些方面代替人去做事。
舉個電商的例子,電商的後臺有很大的壓力,特別是雙十一、618這種特殊時期,會有上傳大量的交易的圖片、資料,而這些圖片都需要被檢查,檢查其中是否有一些敏感、不當的內容,這些工作靠人是很慢的。Intel和京東在前年雙十一合作過,用前年的技術就可以在圖片檢測上提升4倍,在圖片版權保護應用上也有2倍多的提升,這就是完全替代人來做。
視覺的處理
對於視覺理解,現在人工智慧演算法可以識別一個影像裡面有沒有人、有沒有車等等,但是我們希望識別以後還能夠理解這裡面發生了什麼,這樣才可以替代人去做更多的事情。
人實際上是從很多種資訊中去獲取一些感知、理解所需要的元素,視覺是一方面,聲音是一方面,配合視覺裡的文字——這種高度語義的線索,這些都結合起來還需要加上一些先驗的知識。
比如一個無人駕駛的車,這個車要眼觀六路,不同地方發生的事情要有不同的線索去理解,所以演算法也要針對不同位置,不同時間發生場景進行描述。
上圖圖片底下的文字和視訊內容的匹配,都是計算機程式自己產生的。不同場景會產生不同的說法,有一些描述不那麼美,但資訊都在,用這個資訊就可以對視訊進行場景分析。
第二是探索新領域。
舉個例子:探索太空,每天科學家都會收集到非常多的來自太空的探測資料,這些資料雜亂無章,如果靠人去分析,工作量很大,但是如果建立一個模型,把資料導進去,或許很快就能夠發現其中的端倪。
靈感
從人臉這個角度來分析,人臉是做演算法用的最多的。首先看看跟藝術掛鉤,比如風格轉化,給定一張商務照或者標準照,再拿一幅畫,對肖像裡面各個部位進行很好的區分理解,並且把相應位置的一些風格特色提取出來,然後把它對映到這副畫上,形成風格遷移。
還有二維進到三維,在二維裡能夠實時把人的輪廓、特徵點檢測出來,並且有辦法把它對映到三維人臉上去,那麼就可以用訓練出來的這個三維人臉的模型去基於二維影像中的人臉做任意的疊加、變形和特效。
第三是擴充套件。
比如說對聽力不好的人,可以轉換成視覺資訊來補足。通過智慧翻譯擴充套件人的外語能力。還包括製作外骨骼來幫助不能走路的人,等等;
增強
增強這一塊,舉一個關於衣服的例子。左邊這一件叫蝴蝶衣,這件衣服中用了一些超小型處理器放在小的蝴蝶裡,這些蝴蝶停靠在衣服裡,當它檢測到人的一些特殊生理訊號時它就可以飛起來。這是一種非常好的展示,可以給服裝增強時尚的魅力。
第四是自動化。
機器人、自動駕駛、無人機,這些都是在幫助人完成一些受體力限制,或者骯髒、有毒等一些環境不好的任務。
機器人時代
自動化是跟機器人時代有關係的,過去的時代我們統稱為計算機時代(CT,Computer Technology)為主,然後到了Robot Technology時代,它需要在計算機時代裡增加幾樣東西,感知能力要提升,所以有很多感測器技術要加上人工智慧技術去幫它感知外部世界。
認知這個部分很重要,感知進來以後要知道發生什麼,就需要認知,認知這方面對人工智慧的挑戰是最大的。下一步是執行,執行層面是借用以前機械電子這方面的積累,把它們都結合起來,讓它們和人互動,形成一個互動的閉環,這樣才能很好地把一個機器人技術串起來。
不管是無人車還是服務機器人,它們都需要把這個閉環做出來,都是要從計算機這樣一個系統架構下增加這三樣技術。
人機互動方式也需要有比較大的改變。現在我們的判斷是這樣:目前我們已經過了智慧這個階段,現在在朝著自主方面去進軍。從智慧到自主,我們需要有更多的感測器資料。但是資料多了,響應的延遲還不能放鬆,仍然需要保持很快的響應速度,所以對於計算的要求進一步提高。
同時還要考慮,有這樣的計算要求、延遲要求,那裝置是不是有相匹配的負載能力、電池能力。如果沒有,怎麼樣能夠利用外部的能力去達到?所以問題歸結為:在裝置端放多一點還是雲端放多一點?
我們有更好的方案:在中間加入一層叫邊緣計算,也就是可以在很靠近終端裝置使用的場所的基礎設施里加入計算和儲存能力,稱為邊緣計算。邊緣計算的好處是:離裝置近,並且仍然具有資料中心裡伺服器這樣的計算、儲存能力;而因為離裝置近,我們可以享受到5G帶來的超低延遲。
大家對機器人應該有不同的理解。對於我們來講,它需要有一個物理形態,雖然也有很多沒有具體形態的聊天機器人存在於智慧客服,但是物理形態的會帶入更多的價值。這麼多的機器人裡,如果去對它們的智慧程度進行分類,到中級是需要有一定的自主移動能力,高階的要有感知互動能力而且要比較強。
如果把機器人放到一個很大的消費市場中來講,那一定要到家用的智慧服務機器人這個級別。如果要做到家用的話,至少要在外觀和能力上達到上述圖片中的要求。
AI晶片
發展
市場上對AI晶片的要求很不一樣:有的是做推導,有的是在後臺做訓練。那AI晶片有多少種呢?通過對上述晶片常用詞的一些解讀,來簡單介紹一下。
摩爾定律是1965年提出的,53年的過程中,前面的30年,晶片漸漸地從很低的處理能力水平慢慢的提升,在最後的20多年,晶片從量變到了質變。到現在,很小的晶片可以做很強大的事情。
所以最近的15年,晶片發展非常關鍵。從2000年以後,經常有懷疑:摩爾定律是不是要死了?但是Intel一步步的將這個定律推了過來,特別是45奈米和22奈米,這兩個節點推過來,真正是幫行業向前推動了一步。
目前來講,計算能力上升,同時伴隨著成本下降的趨勢非常明顯。摩爾定律正是說了這樣一個規律:每隔18個月,單位成本可購買的計算力是翻倍的。這20年間,單位成本可以買到的計算力翻了15000倍;儲存翻了30000倍。因此,這就是為什麼我們說AI在這個時代是可以大肆發展的時代。
種類
AI晶片,大致可以分為CPU,GPU,FPGA,眾核,ASIC和神經元晶片。其中CPU和GPU是我們常接觸的:CPU是計算機中的中央處理器,GPU是專門用來做圖形的加速,有內建在CPU裡面的也有單獨的。
FPGA是什麼?FPGA是一種介乎於ASIC和CPU之間的一種晶片架構。它提供了可以被重新組織的閘電路,在此基礎上運用組合邏輯去實現一些功能,或者實現一些時序邏輯,把處理能力串聯起來,通過硬體實現的方法把程式寫到FPGA裡。它的工作效率比CPU更高,因為它是專門為某些應用定製的硬體加速。FPGA還有一個好處:可以很方便的去定製一些IO介面。
但是,FPGA比ASIC要貴一些,因為ASIC是把功能固化了,生產批量大,比較便宜。比如,電腦和手機看高清視訊,就用一塊ASIC做編解碼,但是這個晶片只能用來做這一個功能,一旦這個標準向前邁進,要使用一種新的技術,晶片就不能用了。FPGA的好處是:還可以重新再編寫硬體功能,把它燒錄進去,就可以支援新的應用。
FPGA需要用一些硬體程式設計的方式去實現功能,而CPU、GPU不需要,只要軟體程式設計就搞定。
架構
關於架構我們剛才介紹了很多,比如馮.諾依曼架構,哈佛架構,非馮架構等,什麼意思呢?其實就是指計算機中處理器和記憶體是分離的,指令和資料都是放在一起的,通過匯流排,把指令拿出來解碼或者讀寫資料,大家是公用記憶體塊和資料匯流排。
哈佛架構是把資料和指令的記憶體塊分開了,取資料和取指令相互之間不衝突,效率更高。它會用在更多的諸如DSP還有一些要求功耗低,實時性強的嵌入式處理器裡。
非馮架構,即非馮.諾依曼架構,就有很多種變種。最大的特點就是,不再把計算單元和儲存單元分開,而是交織在一起。比如我們做ASIC的時候,很多時候不會去遵循馮.諾依曼架構。想在哪裡放記憶體,靠近計算邏輯,就怎麼放。就類腦晶片更是這樣,計算和儲存放在一起。
用Google的TPU來解讀一下ASIC例項。右上角這塊黃色的,專門用來作矩陣的乘和加,不能做別的,是專門設計的,非常快,所以它的效率非常高。裡面有很多儲存(buffer),也都是按照需要放的。
我們腦子裡不會專門有做矩陣運算的地方,也沒有專門有一塊專門存某些演算法的權值。因此,很多AI的加速晶片被稱為腦啟發的加速晶片,就是它裡面的演算法利用了人工神經元的簡化結構,但是演算法實現過程中和腦的結構和工作方式差別很大。因此,它只是受到腦科學的一些啟發,最後實現的時候不類腦,所以我們稱之為腦啟發。
類腦是什麼呢?類腦是指按照腦的結構設計晶片的架構。左上角是一位神經科學家手繪的一張腦裡面的神經元的圖,神經元有一大堆的突觸,突觸是它接收資訊的地方。然後在神經元裡面累積一些電刺激,累積達到一定閾值就會順著這個軸突去放出一些訊號。軸突是輸出的,輸出可以連線到別的神經元的樹突上去,這樣就構成了很大的一個網路。
類腦晶片的結構就是這樣做的。下面的圖是神經元的電路結構。輸入部分是突觸,突觸這裡面有一些樹突結構的處理,這兒會用到一些學習機制來學習,再把學習結果反映到神經元的引數裡。因此,它就是模仿人腦的設計,叫做類腦晶片。
分類對比
這麼多的晶片,如何分類對比呢?CPU和眾核處理器都是比較通用的處理器,適應性最強,靠軟體變化來適應不同的任務。
GPU有約70%的靈活性,它基本上還是與處理圖形繪製流水線和大量併發資料任務為主。FPGA適應性弱一些,不太適合做靈活的程式跳轉,能適應一些運算規整、併發性比較好的任務。ASIC適應性更弱了,一旦做成了ASIC就會適應性非常小,除非設計時留了很多餘量,能夠通過軟體來控制各種模組執行的狀態。
部署成本方面,眾核、GPU都偏貴,耗電成本也比較大。ASIC價效比最高,因為它是專門為一個任務設計的,多餘的東西都不需要,所以成本最低,但研發成本較高。
近期的AI硬體解決方案的趨勢方面來說,很明顯要用異構的架構去支援。對於複雜的應用,我們可以選擇用CPU+FPGA/GPU/ASIC做相應的方案;對於一些簡單的應用,一般用CPU+ASIC最方便,比如智慧音響會專門做一個ASIC。雖然這個晶片只能做這一件事,但是這就夠了,成本很低。再配上一個小的CPU,這件事情就可以做起來了。
所以AI晶片的使用模式會從最開始幾年在學術上競爭的推動,到真正要落地到不同需求的實際場景,這是一個很明顯的改變。判斷一個AI晶片是否好用,一定要放在一個應用場景裡去考慮。在這個應用場景裡,考慮具體需要解決什麼問題,加上部署的場所對功耗、體積、價格的要求,最後會形成一個對AI晶片評價的指標。
所以不能拋開應用場景、部署條件、解決問題這些角度去看AI晶片。AI晶片是一個很大的概念。
AI晶片的未來
最後,為大家介紹一下AI晶片未來會怎樣。
剛才講的AI晶片都是加速某些特定的應用,主要是機器學習方面的,機器學習的特點是:資料很多,可獲取到並且可以標註,不同種類的資料分佈可以對應於問題的實質。即樣本里的分佈代表著我的這個問題中的答案的分佈。
如果說,這個問題裡有一些隱藏的東西,比如場景中的一些知識,假設,在深度學習裡標不進去怎麼辦呢?舉例來說,一個小的檯面有4個腿,它在有的場景中是凳子,在有的場景中是茶几或桌子,不在具體的場景中,很難說它是幹什麼的。所以這個時候需要自然智慧進行場景推理。自然智慧對於人來講,是一個非常簡單的事情,而機器學習則比較困難。因此必須要在人工智慧研究中加入自然智慧,還要讓它從少量的資料中慢慢學起來。
傳統程式設計方式是對問題找到解決的過程,然後程式設計實現。深度學習幫我們解決的是傳統程式設計難以解決的問題。比如,我們都能識別人臉,但是識別人臉是一個怎樣的流程,用怎樣的程式編出來呢?這個工作學術界研究了十幾二十年,也沒有找到特別好的辦法,而深度學習幫助我們突破了這個事情。
所以這就是,已經知道答案,通過訓練把這個過程用一個模型去表示。但深度學習工作的方式和人腦不一樣,首先是同時缺乏處理多種任務的能力,其次是沒有持續學習的能力。我們下面介紹的神經擬態計算可以支援人的學習方式,其通過對於多種過程的支援來自適應地強化對於答案的匹配。
最後介紹一下LOIHI。這是第一個自我學習的晶片,屬於類腦晶片。正如我們剛才所講的類腦晶片的架構,它可以解決一些當前的深度學習不能解決的問題。比如,一些稀疏編碼、詞典學習、動態學習適應結果的一些問題。這種神經擬態晶片的一種好處是:它直接受到摩爾定律推動的加速的效應;同時,這款晶片還可以同時支援多種事件驅動的學習模式。
LOIHI是非常同構的擴充套件,每一個cell裡都可以放很多神經元,每個神經元都和其他神經元有連線,這是一個片上的網路,如果有一個脈衝過來,比如我在看影像,聽聲音的時候,這個脈衝就會傳送到神經元中,通過樹突。如果這時候裡面存了一些能量,再通過這個脈衝送進來的能量一加權,達到了一個放電的閾值,它就會放出這個脈衝,通過它的軸突送到了其它連線的神經元裡。
這樣就會形成一個網路學習的效應。當然我們需要在上面做一些演算法和網路設計,把不同的神經元代表的含義放進去,這樣就可以開始學習了。這就是目前最新、也是技術很領先的非同步設計的網路。這個晶片在去年底已經在我們美國的實驗室中流片回來,可以正常工作,現在已經開始軟體和應用方面的合作探索。
Q&A
神經擬態晶片應該是一個比較新的一種嘗試,這個晶片整個是構成一種比GPU更加先進的,未來用來做通用計算的一種晶片麼?
實際上是朝著通用計算的方向在做,因為這個晶片是模擬人腦的結構和工作方式,提供了硬體的基礎,在這個基礎上,可以去試驗各種應用在上面如何去做。它的特點是根據你在上面放的網路功能和互相連線的方式不同,能做不同的功能。
還有一個特點是功耗非常低,它是非同步電路,每秒執行100Hz上下,和人腦真的很像,執行功耗很低。而GPU則是全部是一起執行的,針對具體的應用在加速,所以這兩個差別還是很大。
我們知道GPU的崛起是因為深度學習起來之後,它在整個的真實場景的應用下價效比效能超過了CPU,現在我們從某種程度上來看,您提到這種新形式的晶片,有沒有已經在一些我們看到的既定任務上他的效能已經表現出非常好的前景呢?
我們已經在一些實驗上已經看到了很好的潛力。我舉兩個例子,我們做字元識別的時候,可以用很低的功耗,很少的訓練和迭代就可以完成這項工作,這比深度學習要執行在很大系統上訓練,要快很多。第二,它有自己學習新東西的能力。因此在這個晶片上不區分訓練過程和識別過程,是融合在一起的。
深度學習本身自己有一個問題:理論基礎不夠紮實,具有不可解釋性,聽起來好像擬態神經晶片具有更強的不可解釋性?
是可解釋的,因為它用來識別的區域性小網路還是由資料科學家根據需要放進去的,而互相之間的關聯也是有意圖的事先放進去的,然後再去看通過這些關聯學習的效果。包括每一種神經元上也可以使用不同的學習模式,比如監督的、無監督的、還是關聯的。
量子計算未來發展還有不確定性,但是他的能力完全超出我們一般對於計算的理解。對於未來的計算您還有什麼見解?比如我們剛才講到的神經擬態這種跳躍式的一個突破,對於這兩個計算的發展方向您還有哪些建議?
量子計算我們已經開始進行投資在兩個不同的領域,都有相應的晶片開始研發。量子計算首先不是用來取代經典計算機的,我們日常中還是使用經典計算機,量子計算不用來做通用計算,這裡面有幾個原因:
1、 它可以提供很多量子位元,這是一個數量,提供的數量很關鍵。
2、 要看多少個量子位元能夠進入糾纏態。然後進入糾纏態還不行,還要穩定在糾纏態一段時間,這樣才能完成一個任務,也能觀測到一個好的結果。所以這幾個步驟缺一不可。首先,它不是光看數量的,要看它能不能穩定地在晶片裡面維持和控制這麼多的量子位元去在糾纏態下去進行運算。目前來看,實現的要求非常苛刻,比如要麼超導,要麼超低溫,所以不太可能在一個普通的環境下工作,而是一般放置在一個資料中心,給大家提供一些雲服務。
另外量子計算機能做很多量子模擬,這也是它的長處。所以各有各的應用,各有各的強項,但是不能說量子計算就會未來取代我們的經典計算,這是不會的。對於Intel,我們目前雖然是在超導量子位元和另外一種矽自旋量子位元兩個方向都做了投資,但是從目前的觀點和進展來看,沒有個七八年,還到不了規模化工程應用的程度。
計算在過去經歷了很多次的迭代,能力越來越強。往未來看,你認為中央計算和端計算他們會是一個什麼樣的發展情況?我們以後端就是隻有顯示器呢還是說端也會越來越強,和中央形成某種匹配關係,或者說端越來越強中央弱點也無所謂。你是如何看待這個問題的?
這個問題剛好就是非常符合現在Intel提的端到端戰略,而且我們還構造了一個詞叫良性迴圈,就是從端裝置到雲端計算的良性迴圈。首先,端一定會越來越智慧,不管是小的端還是大到無人駕駛的端;然後,端裝置會採集和處理資料,也會把一部分資料傳給雲來進一步分析處理;最後,獲得改進後再下發會端裝置來增強端的能力。這樣就構成了良性迴圈。
物聯網時代來了,將來會有成百倍的智慧裝置出現,機會很大。但我們發現對於創業企業來說,並沒看到創業機會在哪。從你的觀點來說呢,對於物聯網,往未來看呢,我們當然相信任何的硬體都會聯網,都會智慧化,但是這個路徑是怎麼發展呢,大概需要多少時間呢?
時間不好預測,但是路徑比三年前更清晰一些了。比如Edison那個產品,它是一個小的電腦,和郵票一樣大,當時我們也在智慧可穿戴領域做了很多探索。後來發現只做出來這些硬體還不行,所以不是硬體本身的事情,而是基於硬體要構造出很好的商業模型,要很好地利用產生的資料。資料才是持續不斷推動硬體升級的“盈利之母”,因為硬體本身賣太貴推不開,賣太便宜成本收不回來,所以一定要把資料用好。
人工智慧賽博物理作業系統
AI-CPS OS
“人工智慧賽博物理作業系統”(新一代技術+商業作業系統“AI-CPS OS”:雲端計算+大資料+物聯網+區塊鏈+人工智慧)分支用來的今天,企業領導者必須瞭解如何將“技術”全面滲入整個公司、產品等“商業”場景中,利用AI-CPS OS形成數字化+智慧化力量,實現行業的重新佈局、企業的重新構建和自我的煥然新生。
AI-CPS OS的真正價值並不來自構成技術或功能,而是要以一種傳遞獨特競爭優勢的方式將自動化+資訊化、智造+產品+服務和資料+分析一體化,這種整合方式能夠釋放新的業務和運營模式。如果不能實現跨功能的更大規模融合,沒有顛覆現狀的意願,這些將不可能實現。
領導者無法依靠某種單一戰略方法來應對多維度的數字化變革。面對新一代技術+商業作業系統AI-CPS OS顛覆性的數字化+智慧化力量,領導者必須在行業、企業與個人這三個層面都保持領先地位:
重新行業佈局:你的世界觀要怎樣改變才算足夠?你必須對行業典範進行怎樣的反思?
重新構建企業:你的企業需要做出什麼樣的變化?你準備如何重新定義你的公司?
重新打造自己:你需要成為怎樣的人?要重塑自己並在數字化+智慧化時代保有領先地位,你必須如何去做?
AI-CPS OS是數字化智慧化創新平臺,設計思路是將大資料、物聯網、區塊鏈和人工智慧等無縫整合在雲端,可以幫助企業將創新成果融入自身業務體系,實現各個前沿技術在雲端的優勢協同。AI-CPS OS形成的數字化+智慧化力量與行業、企業及個人三個層面的交叉,形成了領導力模式,使數字化融入到領導者所在企業與領導方式的核心位置:
精細:這種力量能夠使人在更加真實、細緻的層面觀察與感知現實世界和數字化世界正在發生的一切,進而理解和更加精細地進行產品個性化控制、微觀業務場景事件和結果控制。
智慧:模型隨著時間(資料)的變化而變化,整個系統就具備了智慧(自學習)的能力。
高效:企業需要建立實時或者準實時的資料採集傳輸、模型預測和響應決策能力,這樣智慧就從批量性、階段性的行為變成一個可以實時觸達的行為。
不確定性:數字化變更顛覆和改變了領導者曾經仰仗的思維方式、結構和實踐經驗,其結果就是形成了複合不確定性這種顛覆性力量。主要的不確定性蘊含於三個領域:技術、文化、制度。
邊界模糊:數字世界與現實世界的不斷融合成CPS不僅讓人們所知行業的核心產品、經濟學定理和可能性都產生了變化,還模糊了不同行業間的界限。這種效應正在向生態系統、企業、客戶、產品快速蔓延。
AI-CPS OS形成的數字化+智慧化力量通過三個方式激發經濟增長:
創造虛擬勞動力,承擔需要適應性和敏捷性的複雜任務,即“智慧自動化”,以區別於傳統的自動化解決方案;
對現有勞動力和實物資產進行有利的補充和提升,提高資本效率;
人工智慧的普及,將推動多行業的相關創新,開闢嶄新的經濟增長空間。
給決策制定者和商業領袖的建議:
超越自動化,開啟新創新模式:利用具有自主學習和自我控制能力的動態機器智慧,為企業創造新商機;
迎接新一代資訊科技,迎接人工智慧:無縫整合人類智慧與機器智慧,重新
評估未來的知識和技能型別;
制定道德規範:切實為人工智慧生態系統制定道德準則,並在智慧機器的開
發過程中確定更加明晰的標準和最佳實踐;
重視再分配效應:對人工智慧可能帶來的衝擊做好準備,制定戰略幫助面臨
較高失業風險的人群;
開發數字化+智慧化企業所需新能力:員工團隊需要積極掌握判斷、溝通及想象力和創造力等人類所特有的重要能力。對於中國企業來說,創造兼具包容性和多樣性的文化也非常重要。
子曰:“君子和而不同,小人同而不和。” 《論語·子路》雲端計算、大資料、物聯網、區塊鏈和 人工智慧,像君子一般融合,一起體現科技就是生產力。
如果說上一次哥倫布地理大發現,擴充的是人類的物理空間。那麼這一次地理大發現,擴充的就是人們的數字空間。在數學空間,建立新的商業文明,從而發現新的創富模式,為人類社會帶來新的財富空間。雲端計算,大資料、物聯網和區塊鏈,是進入這個數字空間的船,而人工智慧就是那船上的帆,哥倫布之帆!
新一代技術+商業的人工智慧賽博物理作業系統AI-CPS OS作為新一輪產業變革的核心驅動力,將進一步釋放歷次科技革命和產業變革積蓄的巨大能量,並創造新的強大引擎。重構生產、分配、交換、消費等經濟活動各環節,形成從巨集觀到微觀各領域的智慧化新需求,催生新技術、新產品、新產業、新業態、新模式。引發經濟結構重大變革,深刻改變人類生產生活方式和思維模式,實現社會生產力的整體躍升。
產業智慧官 AI-CPS
用“人工智慧賽博物理作業系統”(新一代技術+商業作業系統“AI-CPS OS”:雲端計算+大資料+物聯網+區塊鏈+人工智慧),在場景中構建狀態感知-實時分析-自主決策-精準執行-學習提升的認知計算和機器智慧;實現產業轉型升級、DT驅動業務、價值創新創造的產業互聯生態鏈。
長按上方二維碼關注微信公眾號: AI-CPS,更多資訊回覆:
新技術:“雲端計算”、“大資料”、“物聯網”、“區塊鏈”、“人工智慧”;新產業:“智慧製造”、“智慧金融”、“智慧零售”、“智慧駕駛”、“智慧城市”;新模式:“財富空間”、“工業網際網路”、“資料科學家”、“賽博物理系統CPS”、“供應鏈金融”。
官方網站:AI-CPS.NET
本文系“產業智慧官”(公眾號ID:AI-CPS)收集整理,轉載請註明出處!
版權宣告:由產業智慧官(公眾號ID:AI-CPS)推薦的文章,除非確實無法確認,我們都會註明作者和來源。部分文章推送時未能與原作者取得聯絡。若涉及版權問題,煩請原作者聯絡我們,與您共同協商解決。聯絡、投稿郵箱:erp_vip@hotmail.com
相關文章
- 【AI晶片】中國AI晶片爆發,架構創新迫在眉睫AI晶片架構
- 英特爾中國研究院院長宋繼強:AI的豐富應用與晶片發展 | 北大AI公開課筆記AI晶片筆記
- AI晶片行業發展的來龍去脈AI晶片行業
- AI晶片的新風向AI晶片
- 清華出品:最易懂的AI晶片報告!AI晶片
- AI晶片0.5與2.0AI晶片
- 如何將AI應用於晶片設計?谷歌有話說!AI晶片谷歌
- 探尋AI創新之路:遊戲科技與人工智慧創新發展報告AI遊戲人工智慧
- 讓AI有道德!用AI的方式去發展AIAI
- 應用AI晶片加速 Hadoop 3.0 糾刪碼的計算效能AI晶片Hadoop
- 谷歌用AI設計AI晶片,縮短設計週期谷歌AI晶片
- 【AI晶片】AI晶片卡位戰:誰贏得自動駕駛處理器,誰就贏得了AI時代AI晶片自動駕駛
- 如何選擇AI晶片?AI晶片
- AI晶片最強科普AI晶片
- 英偉達的AI晶片霸主之路!AI晶片
- 傳特斯拉正與AMD合作開發自動駕駛汽車AI晶片自動駕駛AI晶片
- 解析AI人工智慧:浪潮、技術、應用發展AI人工智慧
- 英偉達與AI晶片的未來之戰AI晶片
- 高通的自研架構晶片,正在整合生成式AI世界架構晶片AI
- Yann LeCun:未來的AI晶片應該這樣做Yann LeCunAI晶片
- 新火種AI|2024,得AI晶片者得天下。AI晶片
- AI的發展浪潮應推向何處?AI
- AI晶片大戰背後AI晶片
- 全球AI晶片最全盤點AI晶片
- AI晶片最新格局分析AI晶片
- 巨頭攪局AI晶片AI晶片
- 【重磅】英特爾AI大會:新AI晶片和這家巨頭的AI路線圖AI晶片
- IHS Markit:AMOLED 螢幕驅動晶片發展趨勢淺析晶片
- 人工智慧市場熱度持續增長,雲知聲AI晶片加速AI應用的落地人工智慧AI晶片
- 模擬AI晶片怎麼玩?Mythic公佈了他們的新進展AI晶片
- 谷歌母公司Alphabet投資AI晶片初創公司谷歌AlphabetAI晶片
- Android應用架構的發展和實踐Android應用架構
- “中國芯”雄起!阿里達摩院自主研發AI晶片阿里AI晶片
- 光晶片能否代替電子晶片?破解 AI 「算力荒」晶片AI
- AI晶片的長征之路:挑戰與機遇AI晶片
- AI晶片的過去、現在與未來AI晶片
- 平頭哥釋出最強AI晶片含光800 打破AI晶片效能記錄AI晶片
- AI晶片之爭,你選誰?AI晶片