人工智慧時代已來,AI晶片路在何方?

矽說發表於2017-02-24

本文為我在阿甘live關於AI晶片的主題分享實錄

1、晶片行業的演進路線

晶片行業的整體發展始自上世紀60年代,一開始是指數型發展,所以有了每18個月整合度翻一番的摩爾定律,可以說當時的發展是非常快的。摩爾定律背後的邏輯是說,隨著工藝製程的進化,同一款晶片的製造成本會更低,單位面積電晶體數量提升導致相同的晶片所需要的面積縮小;而如果工藝製程發展速度過慢,則意味著晶片製作成本居高不下,導致利潤無法擴大。但是,如果孤注一擲把所有的資本都用來發展新制程,則風險太大,一旦研發失敗公司就完蛋了。

摩爾發現當時市場上成功的半導體廠商的製程進化速度大約是每年半導體晶片上整合的電晶體數量翻倍,於是寫了著名的論文告訴大家這個發展速度是成本與風險之間一個良好的折中,半導體業以後發展可以按照這個速度來。

可以說,摩爾定律背後的終極推動力其實是經濟因素,它給市場帶來的積極影響是,隨著半導體工藝製程的進化,晶片的效能以指數級增長,從而帶動了電子產品效能大躍進式發展,電子市場一片生機勃勃。在摩爾定律提出的前三十年,新工藝製程的研發並不困難,但隨著電晶體越來越小,越來越接近巨集觀物理和量子物理的邊界,高階工藝製程的研發越來越困難,研發成本也越來越高。如果工藝製程繼續按照摩爾定律所說的以指數級的速度縮小特徵尺寸,會遇到兩個阻礙,一個是經濟學阻礙,另一個是物理學阻礙。

經濟學阻礙是,隨著特徵尺寸的縮小,晶片的成本上升很快。這個成本包括NRE成本(Non-Recurring Engineering,指晶片設計和掩膜製作成本,對於一塊晶片而言這些成本是一次性的)和製造成本(即每塊晶片製造的成本)。有人計算過,以現在的最新工藝,一塊晶片的NRE要到1000萬美元以上。如此高昂的NRE意味著需要非常非常高的晶片生產量才能去攤薄這個成本。換句話說,如果晶片的產量不到,那麼你就沒有能力去使用最新的工藝,只能沿用較舊的工藝。這就部分打破了摩爾定律 “投資發展製程-晶片生產成本降低-用部分利潤繼續投資發展製程”的邏輯

而物理學的障礙主要來源於量子效應和光刻精度。電晶體太小就會碰到各種各樣的問題,比如當特徵尺寸縮小到10nm的時候,柵氧化層的厚度僅僅只有十個原子那麼厚,這時便會產生諸多量子效應,導致電晶體的特性難以控制。

我認為,現在晶片行業的發展已經到了瓶頸期,接下來的發展策略有三種,分別是More Moore, More than Moore和Beyond Moore。第一種More Moore,意思是繼續按照摩爾定律的老路走下去,繼續縮小電晶體尺寸;第二種More than Moore,意思是首先晶片系統效能的提升不再單純地靠電晶體的縮小,而是更多地靠電路設計以及系統演算法優化。其次整合度的提高不一定要靠把更多模組放到同一塊晶片上,而是可以靠封裝技術來實現,例如Intel的EMIB,TSMC的InFO等等(蘋果的處理器就用了InFO技術);第三種Beyond Moore,意思是乾脆不用CMOS器件而是去研發一些新的器件,不過這個目前看起來還比較遙遠。未來估計是會More Moore結合More than Moore,隨著時間推移More than Moore比重越來越大。

其實我對未來還是蠻悲觀的,這個瓶頸期如果沒有新器件誕生的話,應該會持續5年10年甚至更長一段時間。就像鋼鐵行業,它早已進入平緩期,也沒什麼特別新的技術,如果這個行業想要有比較大的發展,那除非是發現新的材料可以替代鋼。半導體行業也一樣,什麼時候出來新器件結束這個瓶頸期我也不知道,有的時候科學上的事情就是很偶然,可能突然就發現某種材料可以用了,但如果你找不到新材料,就是沒辦法有很大突破。

2、NV/Google/Intel/AMD在AI晶片的不同戰略

其實人工智慧計算還是分很多領域,晶片應用大概有兩個極端:一個是用於雲端伺服器的高功耗高計算能力的晶片,走的是高效能超級計算機(HPC)的路子;另一個是用於終端(比如手機)的人工智慧晶片,這個就特別注重低功耗,對計算能力的要求不是特別高。

在雲端伺服器這個領域,因為要處理海量的資料,Nvidia的GPU已經成為伺服器不可或缺的一部分,但Nvidia自己目前還沒有打算大規模自己做伺服器,因此在人工智慧的雲端市場,Nvidia提供的是硬體而非平臺。而在終端這個領域,Nvidia基於GPU的人工智慧平臺一方面功耗太大,另一方面過高的計算能力反而導致成本過高,因此無法與定製晶片抗衡。其實,Nvidia的人工智慧平臺最具優勢的應用場景是上面兩種情況的中間,即資料量中等、對計算能力要求還比較高、對功耗有一定要求但是並不苛刻的地方,比如ADAS市場。Nvidia人工智慧平臺無論計算能力(10-100TOPS)還是功耗(10-100W)都能完美地符合要求,因此它主打自動駕駛市場並不奇怪,它在2017年1月份舉辦的CES上也主要釋出了自動駕駛相關的產品。

Intel的話,從三個方面來說吧。第一,在雲端市場,它是最大的玩家,並且正在積極準備與Nvidia抗衡,因為Intel在HPC方面的業務本來就是駕輕就熟,而Nvidia進入HPC還沒有幾年,只能算這個市場的new player。大概是在2013年的時候,人們才發現原來GPU可以用於深度學習,之前根本不知道這個事情。說回Intel,它在收購Altera之後推出了基於FPGA的專用深度學習加速卡,可以在雲端使用。另外Intel收購Nervana後正在積極推廣結合其技術為AI優化的Knight Mill至強處理器,目標也是在雲端。第二,在車載端,Intel與Mobileye和BMW結成了自動駕駛聯盟,Mobileye提供感測器晶片和演算法,Intel提供雲端計算平臺,BMW提供汽車。第三,在移動端,Intel收購了Movidius,但是尚未看到大的動作。所以我預期,移動端的人工智慧晶片,如果有的話還是高通之類的廠商會比較有優勢。

再說Google,它推出來的晶片TPU主要是自用的。這個有點像IBM,IBM最早出的Power PC系列晶片也是為了給自己的server用。所以Google也是類似的思路,它的晶片就沒有打算給別人用,換句話說它沒有真的打算進入晶片這個市場,和別人競爭。

最後說AMD,它在GPU和CPU的技術都處於追趕者的位置,在AI方面比較低調,在CES上公佈新產品的時候也都沒有主動去提人工智慧的事情。最近的新聞大概是和阿里巴巴合作雲端服務作為試水。AMD的總體思路還是求穩,不刻意去跟Nvidia爭誰先誰後,它就等你們把這些東西先做出來再說,自己就很踏實地把顯示卡技術做好。其實GPU天生就符合深度學習的要求,只要AMD把自己晶片的運算能力做上去,它很快就可以殺入人工智慧這個領域中來。

3、Nvidia面臨的機遇和挑戰

2016年是人工智慧爆發的一年,藉著這股東風,Nvidia的股價在去年飛昇三倍有餘,令人驚歎。目前看來,Nvidia的技術成長空間還有很多,因為Nvidia正在轉型成為平臺公司而不是硬體公司,GPU會是它的核心但是不是全部,它要做的是圍繞GPU的一個平臺、一個生態。與GPU配套的各種設施,例如開發平臺、開發者社群和包絡程式語言在內的開發工具也非常重要。舉例來說,在筆記本PC市場,其實ARM的處理器效能完全可以和Intel相抗衡,但是為什麼基本沒有膝上型電腦用ARM的處理器?就是因為ARM在筆記本PC上沒有任何生態。一旦平臺和生態做起來,即使它的技術發展不像原來那麼生猛,我相信Nvidia的商業價值仍然可以得到保證。假如明天AMD做出來一個和Nvidia效能一模一樣的GPU,它一時半會兒也還是無法取代Nvidia,因為Nvidia有自己的CUDA、CUDNN等配套的開發工具。

而Nvidia可能會面臨的最大風險在於,它現在的股價完全由人工智慧來支撐,但人工智慧的應用會不會像投資者想象中發展的那麼快是存疑的。其實非常明顯現在人工智慧的應用有很大的泡沫,大家預期它在一兩年之內會起來。但是如果它在一兩年之內沒有起來或者說某些應用沒有能真的落地,那時候投資者可能會有些反衝。現在是一個overshoot,發現沒有達到預期之後就會有一個undershoot,幾次震盪之後慢慢回到理性估值。

4、FPGA的玩家和留給創業公司的機會

FPGA全稱“可編輯門陣列”(Field Programmable Gate Array),其基本原理是在FPGA晶片內整合大量的數位電路基本閘電路以及儲存器,而使用者可以通過燒入FPGA配置檔案來來定義這些閘電路以及儲存器之間的連線。這種燒入不是一次性的,即使用者今天可以把FPGA配置成一個微控制器MCU,明天可以編輯配置檔案把同一個FPGA配置成一個音訊編解碼器。現在FPGA和人工智慧相關的主要機會是雲端伺服器的可配置運算 ,目前這個領域的玩家主要是兩個,Xilinx和Altera,後者已經被Intel收購。

當下FPGA遇到的一個最關鍵的問題就是開發者生態。傳統CPU也好GPU也好,程式設計是比較容易的,使用的是語言是C++、Java,大家都很熟悉,而且已經形成了成熟的體系,開發環境、生態系統還有開發者的社群這些都很好。但是FPGA開發通常需要使用硬體描述語言,如Verilog、VHDL等等,這些對於程式設計師來說需要大量的時間才能掌握。這樣的話FPGA的生態就無法發展,因為門檻高意味著做的人少,做的人少意味著知名度低,相關專案數量少,這又導致了無法吸引到開發者參與專案,如此便形成了惡性迴圈。

針對這種情況,Xilinx就釋出了一個比較能改善生態的東西,叫做可重配置加速棧,這些用於雲端的FPGA將會使用部分重配置方案。什麼意思呢?通常FPGA配置過程包括硬體描述語言的綜合、佈局佈線、最後產生位元流檔案並寫入以完成配置。在這個過程中,綜合以及佈局佈線花費的時間非常長,可達數小時,而最後位元流檔案寫入以及配置可以在一秒內完成。用於雲端的FPGA方案為了實現快速應用切換,預計將會使用硬IP(即針對某應用硬體加速的位元流),並在需要使用該應用時快速寫入該位元流。在未來,雲端FPGA的生態預計將不止包括Xilinx,還會包括許多第三方IP提供商,最後形成類似App Store的形式讓使用者方便地選購對應的硬體加速方案並實時載入/切換。

目前國內FPGA水平較弱,而且FPGA需要一整套從軟體到硬體的流程,需要深刻的積累,對於創業公司並不是一個最好的方向,更適合國家科研專案。但是創業公司使用FPGA,做FPGA的解決方案,基於FPGA開發或者做FPGA上的IP,是個不錯的機會。換句話說就是你不去手機,而是做APP。其實這個方向國內也已經有不少公司在做了,我知道的比較出名的有深鑑科技。

5、玩人工智慧軟體的正確姿勢

目前人工智慧軟體最大問題是如何把技術真正落實到解決消費者的需求,一些演算法非常有技術含量,但是落地並不容易,例如影像分類等等。我覺得現在做的比較好的軟體是語音識別/互動類,比較典型的是訊飛輸入法,前陣子在錘子手機的釋出會上被秀了一把。

影像類的人工智慧演算法目前是最火的方向,比語音類要火很多,但是目前看來影像演算法大多數只能作為一個大系統的一部分。比如一個安防系統,影像演算法可以用來檢測一個人是否帶刀,但是把這個軟體單獨拉出來賣就不一定能成立了。當然也有單獨做軟體的,例如Prisma,這個之前在Instagram很火的軟體就是利用深度學習來做影像風格變換。總結一句話就是,人工智慧相關的軟體當然是一個非常好的創業方向,只是要找準這個創新的賣點,光有好的技術其實是沒什麼大用的。

在人工智慧領域,國內也出現了一批還不錯的公司,我有在關注。在影像檢測/人臉識別領域,有依圖科技、Face++、商湯科技三隻領頭羊,它們主要為銀行和一些安防系統提供人臉識別的解決方案。在醫療領域,就是用人工智慧幫忙人類判定疾病也有很多公司在做,一圖正在進軍這個領域。在自動駕駛領域,軟體方面做的比較有名的是圖森、地平線。其實地平線攤子鋪得比較大,硬體軟體都做,除了輔助駕駛外,還跟美的合作在做智慧家居。還有一些比較小眾的領域,比如鑑黃,就是圖譜在做。硬體的話,比較有名的是寒武紀。

6、晶片行業的未來除了人工智慧,還有……

最後再說回到整個晶片行業的發展上來。有人問,晶片行業是不是有一個強者恆強的規律,出現黑馬的機率有多大。我認為是這樣的:在晶片這個地方,它是每隔一段就會換一個應用方向,90年代時候最火的是多媒體電腦,也就是PC端,後來就變到了移動端,最近則是人工智慧。眾所周知,Intel是PC時代永遠的老大,在那25年的時間裡基本碾壓所有競爭對手,但移動裝置這個方向它就完全錯過了。所以說,在同一個領域裡基本上是強者恆強,很難有超越,但是在這個領域強,不代表在下一個領域也會強,在“時代”交替的時候是最容易出黑馬的。我們在評判企業價值的時候,要對晶片的技術應用有一個判斷,要非常清楚下一個所謂的風口在哪裡。

現在晶片應用最火的方向毫無疑問是人工智慧了,我還同時看好另外一個方向,就是醫療。我相信在醫療電子領域還有很多可以做的事情,當然這個方向的發展還要倚賴一些基礎設施的建設,比如線上的雲平臺和大資料庫等等,這個部分在這裡就不詳細展開了。

討論區

參與live的人這樣說……

@Jason:萊迪思半導體(LSCC),大疆無人機供應商FPGA未來有潛力,期待分析。

@阿甘 live李一雷:目前中國FPGA進口第一是華為,第二就是大疆。大疆使用FPGA量很大,然而未來從成本考慮很大可能會用ASIC代替。

@旺先生:目前國內的人工智慧相關晶片的發展情況如何,主要有哪些公司在做?離國際先進水平有多大的差距?

@阿甘 live李一雷:國內人工智慧晶片有寒武紀,深鑑等初創公司,也有華為等大公司在佈局,與國外差距不大,尤其是寒武紀已經走在世界前列。

@旺先生:AI晶片目前主要的幾種商業模式有哪些?

@阿甘 live李一雷:一般有兩種,一種是直接賣晶片,還有是賣IP,IP的話是晶片裡的一部分,可以整合在其他公司的晶片裡。

@姜順潮:影像分類可否用在發票影像處理?比如發票、車票這些,拍照後,經過處理,變成會計分錄。這個市場無限大。

@阿甘 live李一雷:影像分類當然可以用在發票分類上,實現手寫和數字識別。關於票據問題,是的,市場是很大,目前美國支票存取已經是自動識別了,用手機app拍照就行。

@Robin:Nvidia一半以上的收入還在傳統遊戲顯示卡市場吧,雲端計算和人工智慧短期增速如果不盡如人意的話,股價回撥就不可避免了。

@阿甘 live李一雷:關於NV的股價,我認為這位朋友的分析很有道理。

@wing ng:想請教一下,FPGA在用電量是不是一般ASIC的3X,晶片大小是不是為ASIC的2X?

@阿甘 live李一雷:FPGA的用電量在ASIC的十倍以上,造價也在十倍以上。

@寧波:您知道做鑑黃的除了圖譜科技,還沒有其他的團隊?

@阿甘 live李一雷:鑑黃的技術壁壘不高,關鍵是渠道要搞定。

@hufei:我這收集了2個觀點,能不能幫我評價一下呢?第一個:Nvidia在人工智慧晶片市場的真實統治力,可能比股票市場上的亮眼成績更為顯著。儘管市場上也存在其他深度學習訓練(training)和預測(Inference)的解決方案,但試問各家AI企業,無論其內部的模型訓練,還是銷售給最終客戶的智慧產品,絕大多數還是採用了Nvidia的GPU方案。第二,值得關注的是,就異構計算的主要應用機器學習來看,分為訓練和推斷兩個部分。其中,訓練市場佔整個機器學習市場的5%,其餘95%都是推斷市場。Steve Glaser認為,GPU僅僅是關注機器學習的訓練市場,而推斷市場才是FPGA關注的領域,這恰恰是機器學習未來發展的重要組成部分。

@阿甘 live李一雷:第一個判斷是對的,第二個判斷的話,FPGA在雲端會用得比較多,inference在終端還是要靠ASIC。

@晨穎:李博士,AI晶片對人工智慧應用的影響是什麼?AI晶片離大規模商用還有多遠?

@阿甘 live李一雷:AI晶片技術上離大規模商用不遠了,但是使用專用AI的ASIC市場還沒完全起來,很多公司在觀望,Intel等公司在慢慢佈局,新推出的Xeon Phi伺服器CPU裡面加入了部分的AI加速。

@晨穎:能否比較一下寒武紀和Nvidia的ai晶片的差別?

@阿甘 live李一雷:寒武紀是專用ai加速晶片,nvidia的gpu是通用計算單元只是比較適合計算深度學習

@林尤茗:IBM的沃森在醫療上的運用效果如何?

@阿甘 live李一雷:IBM Watson在醫療上的應用已經有不少報導,大資料和AI在醫療上得到應用一定會成為現實。目前醫學的研究都是基於資料的研究,之前的研究樣本量都不大,使用了大資料加人工智慧後醫學的發展一定會大大加速。

@林尤茗:再問一個:如果谷歌最終選擇了使用TPU,會不會對英特爾和英偉達這些晶片製造商構成巨大的威脅?因為他們的線上業務是如此巨大。他們比地球上任何其它公司購買或運營的計算機硬體都要多,而且隨著雲端計算的重要性持續增加,這個差距也只會越來越大。

@阿甘 live李一雷:會有一些,但不會是最大的影響,因為google的伺服器在整個伺服器市場佔比例不大。

@沉思:高通在CES展上推出驍龍835,適合深度學習,這款晶片和高通在人工智慧方面能不能解讀一下?

@阿甘 live李一雷:snapdragon 835對於ai的支援主要在於dsp對於深度學習演算法支援的design kit。

@許健:感謝分享,我的問題是目前人工智慧變為實際應用,變成類似移動網際網路這樣的產業最大的難點是什麼?目前看到的一些應用主要在智慧客服等,還有c端的應用主要是類似echo等的家庭智慧音響,未來可以預見的最大應用是自動駕駛和醫療領域的應用,其他呢,其他通過人工智慧更深度的改變會在哪裡?

@阿甘 live李一雷:人工智慧變為現實的難度在於如何落地。人工駕駛和醫療是兩個重要的點,然而人工駕駛必須能通過各種極端情況下的驗證才能上馬。輔助駕駛離現實比較接近。醫學使用目前看起來比較接近實用,因為AI比人做得好不難,主要障礙在於基礎設施不好大資料很難獲得,例如病歷如何聯網。AI離使用最接近的是金融領域,目前高頻交易,詐騙檢測等已經用上了AI。

相關文章