英特爾中國研究院院長宋繼強:AI的豐富應用與晶片發展 | 北大AI公開課筆記
主講人:宋繼強 | 英特爾中國研究院院長
整理:陳銘林 張康
量子位 出品 | 公眾號 QbitAI
週三晚,北京大學“人工智慧前沿與產業趨勢”第四講,本期英特爾中國研究院院長宋繼強授課主題為“人工智慧的豐富應用與晶片發展”,分享計算硬體與AI晶片的發展現狀及趨勢。
全程乾貨滿滿,量子位作為獨家合作媒體,為大家帶來詳細課程筆記一份。
課程導師:雷鳴,天使投資人,百度創始七劍客之一,酷我音樂創始人,北京大學信科人工智慧創新中心主任,2000年獲得北京大學計算機碩士學位,2005年獲得史丹佛商學院MBA學位,同時也是“千人計劃”特聘專家。
主講嘉賓:宋繼強,英特爾中國研究院院長,於2008年加入英特爾中國研究院任清華大學-英特爾先進移動計算中心應用研發總監,是創造Intel Edison產品原型的核心成員。領導研發了基於Edison的智慧裝置開發套件來促進Edison技術在創客社群的普及,發明了稱為互動式瓷器的新的裝置類別。他目前大力推動基於英特爾技術的人工智慧技術、智慧機器人互動技術和智慧基礎設施研究。
人工智慧的第三次浪潮
這次人工智慧的興起是第三次人工智慧的熱潮,跟前兩次很相似:先從學術界突破,發現人工智慧在某些方面能夠比人做得強,再去產業界落地應用,而產業的應用只有在能夠大規模地落地之後,才能真正地用產業來推動研究,才能形成一個正迴圈。前兩次熱潮過後進入了冬天正是因為沒有完成這個正迴圈。而這次擁有絕好的機會,我們非常有信心可以通過各種各樣的應用,通過晶片方面的探索,把這波浪潮持續下去,持續十年二十年甚至三十年。
人工智慧的定義有好幾種,其中一種被大家廣泛認可的是:讓一個演算法、系統、或者機器,通過模仿人的智慧的方式來對外界的輸入產生反應。也就是用人工的演算法、程式模擬人的反應。
人工智慧裡面會涉及到很多學科,比如神經學。研究範圍也很廣,涉及計算機視覺、自然語言處理、專家系統、控制系統等。
當前人工智慧發展的重點
人工智慧現在發展的重點,從應用層面出發,應用價值最大最廣的,應該是無人駕駛、健康醫療這種覆蓋面很廣的應用,因為它和每個人的日常生活都息息相關。此外,像零售金融這種應用,雖然日常身邊不會有很大的感受,但實際上在淘寶或者京東的業務裡面已經有很多人工智慧的應用。金融上,某些銀行的理財服務,會根據客戶情況,自動推薦一些理財服務給你,這就是智慧投顧。
演算法方面也仍然需要持續不斷地提高。
一是用比較成熟的深度學習、深度神經網路的演算法加上一些別的演算法——基於知識的、基於模型的或者基於推理的,來彌補現在神經網路演算法的不足,讓它能夠更好地滿足業務的可靠性要求。
二是考慮部署成本,在保證效果的同時,怎麼去減少資源成本。在硬體方面,這是非常重要的。還在科研階段的時候,我們可以用各種方式做模擬、做演算法驗證,但到了部署在真正場景的時候,需要考慮到各個場景裡需要資源的功耗、體積、價格要求等等。而晶片是基礎,不同領域對晶片的要求也不一樣。
從應用的角度來看,我們可以期望人工智慧在很多方面都帶來體驗升級。除了現在幫助我們在看世界、聽世界等這些方面達到提升之外,在最後希望可以放心地把一些決策都交給人工智慧。無人駕駛就是一個典型例子,就是人類在開車時把很多決策都交給了人工智慧。雖然這裡面涉及到信任度、安全性等很多問題需要考慮,但前景是很好的。
如何看待人工智慧
現在對人工智慧一直有兩種聲音:樂觀的和消極的,那麼對人工智慧應該怎麼看待呢?我個人非常贊同Rodney Brooks的觀點:AI和人對立在短期內是不會發生的,通用性也不會達到人的水平。舉個例子:現在AlphaGo很牛,下圍棋下得很好,但是它下軍棋肯定下不過一個小孩,換一個領域它就更加不行了。
Rodney Brooks是人工智慧行為學派的傑出代表,他參與建立了iRobot公司。行為學派不關注具體的演算法、不關注模型,它關注每次迭代都有一個完整的系統、能夠在真實的環境裡完成一定的任務,所以他們也可以說是系統優化學派。
他認為人工智慧在近十年主要在兩大方向能給人提供最大價值:第一,五年左右(Rodney Brooks說這話大概在前年左右),人工智慧會在輔助駕駛和自動駕駛方面帶來很大的價值;第二,讓機器人來幫助我們解決社會的重大問題,比如養老。
這次人工智慧碰上了好時代
計算力的重大突破
為什麼說這一次人工智慧的浪潮碰上了好的時代呢?因為這次人工智慧趕上了計算力的重大突破時期。計算力的突破主要靠最近這十年摩爾定律的發展,連深度學習這麼耗時的計算都能讓它在有限的時間內完成訓練迭代,以達到可用的水平。
演算法上的創新,加上很多資源的支援,參與的科研人員也非常多,這個事情就會發展得很快。到2020年,預估對AI計算力的需求會增長12倍,這個是在17年預估的。而這大部分會在資料中心增長。
AI的普及
現在很多AI仍然在To B的業務裡面發生作用,比如金融領域、零售領域的後臺、搜尋網站的後臺、新聞網站的後臺,有很多AI演算法在工作,如果它能夠很順利地往醫療、個人日常生活發展,就能夠普及。這個普及的要求是價效比要高,這對演算法、晶片都提出了很高的要求。
未來AI會在四大方面發生作用
對於AI能夠在哪些方面發生重大作用,我們有一個總結,有四個方面:
第一是加速。
深度學習
深度學習在影像識別、語音識別上應用使其能力變得很強,在某些具體領域甚至超過了人。這裡面的加速在哪裡?它可以在某些方面代替人去做事。
舉個電商的例子,電商的後臺有很大的壓力,特別是雙十一、618這種特殊時期,會有上傳大量的交易的圖片、資料,而這些圖片都需要被檢查,檢查其中是否有一些敏感、不當的內容,這些工作靠人是很慢的。Intel和京東在前年雙十一合作過,用前年的技術就可以在圖片檢測上提升4倍,在圖片版權保護應用上也有2倍多的提升,這就是完全替代人來做。
視覺的處理
對於視覺理解,現在人工智慧演算法可以識別一個影像裡面有沒有人、有沒有車等等,但是我們希望識別以後還能夠理解這裡面發生了什麼,這樣才可以替代人去做更多的事情。
人實際上是從很多種資訊中去獲取一些感知、理解所需要的元素,視覺是一方面,聲音是一方面,配合視覺裡的文字——這種高度語義的線索,這些都結合起來還需要加上一些先驗的知識。
比如一個無人駕駛的車,這個車要眼觀六路,不同地方發生的事情要有不同的線索去理解,所以演算法也要針對不同位置,不同時間發生場景進行描述。
上圖圖片底下的文字和視訊內容的匹配,都是計算機程式自己產生的。不同場景會產生不同的說法,有一些描述不那麼美,但資訊都在,用這個資訊就可以對視訊進行場景分析。
第二是探索新領域。
舉個例子:探索太空,每天科學家都會收集到非常多的來自太空的探測資料,這些資料雜亂無章,如果靠人去分析,工作量很大,但是如果建立一個模型,把資料導進去,或許很快就能夠發現其中的端倪。
靈感
從人臉這個角度來分析,人臉是做演算法用的最多的。首先看看跟藝術掛鉤,比如風格轉化,給定一張商務照或者標準照,再拿一幅畫,對肖像裡面各個部位進行很好的區分理解,並且把相應位置的一些風格特色提取出來,然後把它對映到這副畫上,形成風格遷移。
還有二維進到三維,在二維裡能夠實時把人的輪廓、特徵點檢測出來,並且有辦法把它對映到三維人臉上去,那麼就可以用訓練出來的這個三維人臉的模型去基於二維影像中的人臉做任意的疊加、變形和特效。
第三是擴充套件。
比如說對聽力不好的人,可以轉換成視覺資訊來補足。通過智慧翻譯擴充套件人的外語能力。還包括製作外骨骼來幫助不能走路的人,等等;
增強
增強這一塊,舉一個關於衣服的例子。左邊這一件叫蝴蝶衣,這件衣服中用了一些超小型處理器放在小的蝴蝶裡,這些蝴蝶停靠在衣服裡,當它檢測到人的一些特殊生理訊號時它就可以飛起來。這是一種非常好的展示,可以給服裝增強時尚的魅力。
第四是自動化。
機器人、自動駕駛、無人機,這些都是在幫助人完成一些受體力限制,或者骯髒、有毒等一些環境不好的任務。
機器人時代
自動化是跟機器人時代有關係的,過去的時代我們統稱為計算機時代(CT,Computer Technology)為主,然後到了Robot Technology時代,它需要在計算機時代裡增加幾樣東西,感知能力要提升,所以有很多感測器技術要加上人工智慧技術去幫它感知外部世界。
認知這個部分很重要,感知進來以後要知道發生什麼,就需要認知,認知這方面對人工智慧的挑戰是最大的。下一步是執行,執行層面是借用以前機械電子這方面的積累,把它們都結合起來,讓它們和人互動,形成一個互動的閉環,這樣才能很好地把一個機器人技術串起來。
不管是無人車還是服務機器人,它們都需要把這個閉環做出來,都是要從計算機這樣一個系統架構下增加這三樣技術。
人機互動方式也需要有比較大的改變。現在我們的判斷是這樣:目前我們已經過了智慧這個階段,現在在朝著自主方面去進軍。從智慧到自主,我們需要有更多的感測器資料。但是資料多了,響應的延遲還不能放鬆,仍然需要保持很快的響應速度,所以對於計算的要求進一步提高。
同時還要考慮,有這樣的計算要求、延遲要求,那裝置是不是有相匹配的負載能力、電池能力。如果沒有,怎麼樣能夠利用外部的能力去達到?所以問題歸結為:在裝置端放多一點還是雲端放多一點?
我們有更好的方案:在中間加入一層叫邊緣計算,也就是可以在很靠近終端裝置使用的場所的基礎設施里加入計算和儲存能力,稱為邊緣計算。邊緣計算的好處是:離裝置近,並且仍然具有資料中心裡伺服器這樣的計算、儲存能力;而因為離裝置近,我們可以享受到5G帶來的超低延遲。
大家對機器人應該有不同的理解。對於我們來講,它需要有一個物理形態,雖然也有很多沒有具體形態的聊天機器人存在於智慧客服,但是物理形態的會帶入更多的價值。這麼多的機器人裡,如果去對它們的智慧程度進行分類,到中級是需要有一定的自主移動能力,高階的要有感知互動能力而且要比較強。
如果把機器人放到一個很大的消費市場中來講,那一定要到家用的智慧服務機器人這個級別。如果要做到家用的話,至少要在外觀和能力上達到上述圖片中的要求。
AI晶片
發展
市場上對AI晶片的要求很不一樣:有的是做推導,有的是在後臺做訓練。那AI晶片有多少種呢?通過對上述晶片常用詞的一些解讀,來簡單介紹一下。
摩爾定律是1965年提出的,53年的過程中,前面的30年,晶片漸漸地從很低的處理能力水平慢慢的提升,在最後的20多年,晶片從量變到了質變。到現在,很小的晶片可以做很強大的事情。
所以最近的15年,晶片發展非常關鍵。從2000年以後,經常有懷疑:摩爾定律是不是要死了?但是Intel一步步的將這個定律推了過來,特別是45奈米和22奈米,這兩個節點推過來,真正是幫行業向前推動了一步。
目前來講,計算能力上升,同時伴隨著成本下降的趨勢非常明顯。摩爾定律正是說了這樣一個規律:每隔18個月,單位成本可購買的計算力是翻倍的。這20年間,單位成本可以買到的計算力翻了15000倍;儲存翻了30000倍。因此,這就是為什麼我們說AI在這個時代是可以大肆發展的時代。
種類
AI晶片,大致可以分為CPU,GPU,FPGA,眾核,ASIC和神經元晶片。其中CPU和GPU是我們常接觸的:CPU是計算機中的中央處理器,GPU是專門用來做圖形的加速,有內建在CPU裡面的也有單獨的。
FPGA是什麼?FPGA是一種介乎於ASIC和CPU之間的一種晶片架構。它提供了可以被重新組織的閘電路,在此基礎上運用組合邏輯去實現一些功能,或者實現一些時序邏輯,把處理能力串聯起來,通過硬體實現的方法把程式寫到FPGA裡。它的工作效率比CPU更高,因為它是專門為某些應用定製的硬體加速。FPGA還有一個好處:可以很方便的去定製一些IO介面。
但是,FPGA比ASIC要貴一些,因為ASIC是把功能固化了,生產批量大,比較便宜。比如,電腦和手機看高清視訊,就用一塊ASIC做編解碼,但是這個晶片只能用來做這一個功能,一旦這個標準向前邁進,要使用一種新的技術,晶片就不能用了。FPGA的好處是:還可以重新再編寫硬體功能,把它燒錄進去,就可以支援新的應用。
FPGA需要用一些硬體程式設計的方式去實現功能,而CPU、GPU不需要,只要軟體程式設計就搞定。
架構
關於架構我們剛才介紹了很多,比如馮.諾依曼架構,哈佛架構,非馮架構等,什麼意思呢?其實就是指計算機中處理器和記憶體是分離的,指令和資料都是放在一起的,通過匯流排,把指令拿出來解碼或者讀寫資料,大家是公用記憶體塊和資料匯流排。
哈佛架構是把資料和指令的記憶體塊分開了,取資料和取指令相互之間不衝突,效率更高。它會用在更多的諸如DSP還有一些要求功耗低,實時性強的嵌入式處理器裡。
非馮架構,即非馮.諾依曼架構,就有很多種變種。最大的特點就是,不再把計算單元和儲存單元分開,而是交織在一起。比如我們做ASIC的時候,很多時候不會去遵循馮.諾依曼架構。想在哪裡放記憶體,靠近計算邏輯,就怎麼放。就類腦晶片更是這樣,計算和儲存放在一起。
用Google的TPU來解讀一下ASIC例項。右上角這塊黃色的,專門用來作矩陣的乘和加,不能做別的,是專門設計的,非常快,所以它的效率非常高。裡面有很多儲存(buffer),也都是按照需要放的。
我們腦子裡不會專門有做矩陣運算的地方,也沒有專門有一塊專門存某些演算法的權值。因此,很多AI的加速晶片被稱為腦啟發的加速晶片,就是它裡面的演算法利用了人工神經元的簡化結構,但是演算法實現過程中和腦的結構和工作方式差別很大。因此,它只是受到腦科學的一些啟發,最後實現的時候不類腦,所以我們稱之為腦啟發。
類腦是什麼呢?類腦是指按照腦的結構設計晶片的架構。左上角是一位神經科學家手繪的一張腦裡面的神經元的圖,神經元有一大堆的突觸,突觸是它接收資訊的地方。然後在神經元裡面累積一些電刺激,累積達到一定閾值就會順著這個軸突去放出一些訊號。軸突是輸出的,輸出可以連線到別的神經元的樹突上去,這樣就構成了很大的一個網路。
類腦晶片的結構就是這樣做的。下面的圖是神經元的電路結構。輸入部分是突觸,突觸這裡面有一些樹突結構的處理,這兒會用到一些學習機制來學習,再把學習結果反映到神經元的引數裡。因此,它就是模仿人腦的設計,叫做類腦晶片。
分類對比
這麼多的晶片,如何分類對比呢?CPU和眾核處理器都是比較通用的處理器,適應性最強,靠軟體變化來適應不同的任務。
GPU有約70%的靈活性,它基本上還是與處理圖形繪製流水線和大量併發資料任務為主。FPGA適應性弱一些,不太適合做靈活的程式跳轉,能適應一些運算規整、併發性比較好的任務。ASIC適應性更弱了,一旦做成了ASIC就會適應性非常小,除非設計時留了很多餘量,能夠通過軟體來控制各種模組執行的狀態。
部署成本方面,眾核、GPU都偏貴,耗電成本也比較大。ASIC價效比最高,因為它是專門為一個任務設計的,多餘的東西都不需要,所以成本最低,但研發成本較高。
近期的AI硬體解決方案的趨勢方面來說,很明顯要用異構的架構去支援。對於複雜的應用,我們可以選擇用CPU+FPGA/GPU/ASIC做相應的方案;對於一些簡單的應用,一般用CPU+ASIC最方便,比如智慧音響會專門做一個ASIC。雖然這個晶片只能做這一件事,但是這就夠了,成本很低。再配上一個小的CPU,這件事情就可以做起來了。
所以AI晶片的使用模式會從最開始幾年在學術上競爭的推動,到真正要落地到不同需求的實際場景,這是一個很明顯的改變。判斷一個AI晶片是否好用,一定要放在一個應用場景裡去考慮。在這個應用場景裡,考慮具體需要解決什麼問題,加上部署的場所對功耗、體積、價格的要求,最後會形成一個對AI晶片評價的指標。
所以不能拋開應用場景、部署條件、解決問題這些角度去看AI晶片。AI晶片是一個很大的概念。
AI晶片的未來
最後,為大家介紹一下AI晶片未來會怎樣。
剛才講的AI晶片都是加速某些特定的應用,主要是機器學習方面的,機器學習的特點是:資料很多,可獲取到並且可以標註,不同種類的資料分佈可以對應於問題的實質。即樣本里的分佈代表著我的這個問題中的答案的分佈。
如果說,這個問題裡有一些隱藏的東西,比如場景中的一些知識,假設,在深度學習裡標不進去怎麼辦呢?舉例來說,一個小的檯面有4個腿,它在有的場景中是凳子,在有的場景中是茶几或桌子,不在具體的場景中,很難說它是幹什麼的。所以這個時候需要自然智慧進行場景推理。自然智慧對於人來講,是一個非常簡單的事情,而機器學習則比較困難。因此必須要在人工智慧研究中加入自然智慧,還要讓它從少量的資料中慢慢學起來。
傳統程式設計方式是對問題找到解決的過程,然後程式設計實現。深度學習幫我們解決的是傳統程式設計難以解決的問題。比如,我們都能識別人臉,但是識別人臉是一個怎樣的流程,用怎樣的程式編出來呢?這個工作學術界研究了十幾二十年,也沒有找到特別好的辦法,而深度學習幫助我們突破了這個事情。
所以這就是,已經知道答案,通過訓練把這個過程用一個模型去表示。但深度學習工作的方式和人腦不一樣,首先是同時缺乏處理多種任務的能力,其次是沒有持續學習的能力。我們下面介紹的神經擬態計算可以支援人的學習方式,其通過對於多種過程的支援來自適應地強化對於答案的匹配。
最後介紹一下LOIHI。這是第一個自我學習的晶片,屬於類腦晶片。正如我們剛才所講的類腦晶片的架構,它可以解決一些當前的深度學習不能解決的問題。比如,一些稀疏編碼、詞典學習、動態學習適應結果的一些問題。這種神經擬態晶片的一種好處是:它直接受到摩爾定律推動的加速的效應;同時,這款晶片還可以同時支援多種事件驅動的學習模式。
LOIHI是非常同構的擴充套件,每一個cell裡都可以放很多神經元,每個神經元都和其他神經元有連線,這是一個片上的網路,如果有一個脈衝過來,比如我在看影像,聽聲音的時候,這個脈衝就會傳送到神經元中,通過樹突。如果這時候裡面存了一些能量,再通過這個脈衝送進來的能量一加權,達到了一個放電的閾值,它就會放出這個脈衝,通過它的軸突送到了其它連線的神經元裡。
這樣就會形成一個網路學習的效應。當然我們需要在上面做一些演算法和網路設計,把不同的神經元代表的含義放進去,這樣就可以開始學習了。這就是目前最新、也是技術很領先的非同步設計的網路。這個晶片在去年底已經在我們美國的實驗室中流片回來,可以正常工作,現在已經開始軟體和應用方面的合作探索。
Q&A
神經擬態晶片應該是一個比較新的一種嘗試,這個晶片整個是構成一種比GPU更加先進的,未來用來做通用計算的一種晶片麼?
實際上是朝著通用計算的方向在做,因為這個晶片是模擬人腦的結構和工作方式,提供了硬體的基礎,在這個基礎上,可以去試驗各種應用在上面如何去做。它的特點是根據你在上面放的網路功能和互相連線的方式不同,能做不同的功能。
還有一個特點是功耗非常低,它是非同步電路,每秒執行100Hz上下,和人腦真的很像,執行功耗很低。而GPU則是全部是一起執行的,針對具體的應用在加速,所以這兩個差別還是很大。
我們知道GPU的崛起是因為深度學習起來之後,它在整個的真實場景的應用下價效比效能超過了CPU,現在我們從某種程度上來看,您提到這種新形式的晶片,有沒有已經在一些我們看到的既定任務上他的效能已經表現出非常好的前景呢?
我們已經在一些實驗上已經看到了很好的潛力。我舉兩個例子,我們做字元識別的時候,可以用很低的功耗,很少的訓練和迭代就可以完成這項工作,這比深度學習要執行在很大系統上訓練,要快很多。第二,它有自己學習新東西的能力。因此在這個晶片上不區分訓練過程和識別過程,是融合在一起的。
深度學習本身自己有一個問題:理論基礎不夠紮實,具有不可解釋性,聽起來好像擬態神經晶片具有更強的不可解釋性?
是可解釋的,因為它用來識別的區域性小網路還是由資料科學家根據需要放進去的,而互相之間的關聯也是有意圖的事先放進去的,然後再去看通過這些關聯學習的效果。包括每一種神經元上也可以使用不同的學習模式,比如監督的、無監督的、還是關聯的。
量子計算未來發展還有不確定性,但是他的能力完全超出我們一般對於計算的理解。對於未來的計算您還有什麼見解?比如我們剛才講到的神經擬態這種跳躍式的一個突破,對於這兩個計算的發展方向您還有哪些建議?
量子計算我們已經開始進行投資在兩個不同的領域,都有相應的晶片開始研發。量子計算首先不是用來取代經典計算機的,我們日常中還是使用經典計算機,量子計算不用來做通用計算,這裡面有幾個原因:
1、 它可以提供很多量子位元,這是一個數量,提供的數量很關鍵。
2、 要看多少個量子位元能夠進入糾纏態。然後進入糾纏態還不行,還要穩定在糾纏態一段時間,這樣才能完成一個任務,也能觀測到一個好的結果。所以這幾個步驟缺一不可。首先,它不是光看數量的,要看它能不能穩定地在晶片裡面維持和控制這麼多的量子位元去在糾纏態下去進行運算。目前來看,實現的要求非常苛刻,比如要麼超導,要麼超低溫,所以不太可能在一個普通的環境下工作,而是一般放置在一個資料中心,給大家提供一些雲服務。
另外量子計算機能做很多量子模擬,這也是它的長處。所以各有各的應用,各有各的強項,但是不能說量子計算就會未來取代我們的經典計算,這是不會的。對於Intel,我們目前雖然是在超導量子位元和另外一種矽自旋量子位元兩個方向都做了投資,但是從目前的觀點和進展來看,沒有個七八年,還到不了規模化工程應用的程度。
計算在過去經歷了很多次的迭代,能力越來越強。往未來看,你認為中央計算和端計算他們會是一個什麼樣的發展情況?我們以後端就是隻有顯示器呢還是說端也會越來越強,和中央形成某種匹配關係,或者說端越來越強中央弱點也無所謂。你是如何看待這個問題的?
這個問題剛好就是非常符合現在Intel提的端到端戰略,而且我們還構造了一個詞叫良性迴圈,就是從端裝置到雲端計算的良性迴圈。首先,端一定會越來越智慧,不管是小的端還是大到無人駕駛的端;然後,端裝置會採集和處理資料,也會把一部分資料傳給雲來進一步分析處理;最後,獲得改進後再下發會端裝置來增強端的能力。這樣就構成了良性迴圈。
物聯網時代來了,將來會有成百倍的智慧裝置出現,機會很大。但我們發現對於創業企業來說,並沒看到創業機會在哪。從你的觀點來說呢,對於物聯網,往未來看呢,我們當然相信任何的硬體都會聯網,都會智慧化,但是這個路徑是怎麼發展呢,大概需要多少時間呢?
時間不好預測,但是路徑比三年前更清晰一些了。比如Edison那個產品,它是一個小的電腦,和郵票一樣大,當時我們也在智慧可穿戴領域做了很多探索。後來發現只做出來這些硬體還不行,所以不是硬體本身的事情,而是基於硬體要構造出很好的商業模型,要很好地利用產生的資料。資料才是持續不斷推動硬體升級的“盈利之母”,因為硬體本身賣太貴推不開,賣太便宜成本收不回來,所以一定要把資料用好。
下期預告
下週三晚18:40,北京大學“人工智慧前沿與產業趨勢”第五講,將由寒武紀聯合創始人陳雲霽為大家授課。
感興趣的小夥伴可以新增量子位小助手6:qbitbot6,備註“北大”,通過後可進入課程活動群,獲取每期課程資訊,與其他小夥伴互動交流。
祝大家聽課愉快~
學習資料
在量子位微信公眾號(QbitAI)介面回覆:“180324”,可獲取本次課程的視訊回放連結。
— 完 —
加入社群
量子位AI社群15群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot6入群;
此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。
進群請加小助手微訊號qbitbot6,並務必備註相應群的關鍵詞~通過稽核後我們將邀請進群。(專業群稽核較嚴,敬請諒解)
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。
量子位 QbitAI · 頭條號簽約作者
վ'ᴗ' ի 追蹤AI技術和產品新動態
相關文章
- 英特爾中國研究院院長宋繼強:人工智慧已至爆發臨界點人工智慧
- 【AI晶片】應用和架構創新雙輪驅動AI晶片發展報告;AI的豐富應用與晶片發展AI晶片架構
- 今日頭條AI實驗室主任李航:自然語言的現狀和發展 | 北大AI公開課筆記AI筆記
- 中科院計算所研究員陳雲霽:深度學習處理器的現狀及發展 | 北大AI公開課筆記深度學習AI筆記
- 英特爾AI晶片業務的現狀與未來AI晶片
- 科大訊飛執行總裁胡鬱:AI賦能,智贏未來 | 北大AI公開課筆記AI筆記
- 【重磅】英特爾AI大會:新AI晶片和這家巨頭的AI路線圖AI晶片
- 百度自動駕駛首席架構師陳競凱:自動駕駛的現狀及發展 | 北大AI公開課筆記...自動駕駛架構AI筆記
- 360首席科學家顏水成:人工智慧雜談 | 北大AI公開課筆記人工智慧AI筆記
- 英特爾“AI 養豬”AI
- AI研究院巡禮——小米AI研究院AI
- “中國芯”雄起!阿里達摩院自主研發AI晶片阿里AI晶片
- 英特爾AI生態兩大利器,讓AI開發更快更簡單AI
- AI並非“一策萬能”:英特爾人工智慧大會公佈多方面AI進展AI人工智慧
- 曠視首席科學家孫劍:計算機視覺的變革和挑戰 | 北大AI公開課筆記計算機視覺AI筆記
- 大咖公開課 | AI自動化應用開發,讓創意與效率並駕齊驅!AI
- 【AI晶片】中國AI晶片爆發,架構創新迫在眉睫AI晶片架構
- 中國傳媒大學新媒體研究院&新浪AI媒體研究院:《中國智慧媒體發展報告(2020-2021)》AI
- Facebook研究院院長:AI不會取代人類AI
- 走進英特爾中國研究院,探索科技創新無窮奧祕
- 公開課 | 用AI給舊時光上色!詳解GAN在黑白照片上色中的應用AI
- 英特爾、聯想與賽特斯強強聯手,共推NFV應用程式
- 英特爾為AI添薪加火AI
- 讓AI有道德!用AI的方式去發展AIAI
- AI晶片最強科普AI晶片
- 平頭哥釋出最強AI晶片含光800 打破AI晶片效能記錄AI晶片
- 中國旅遊研究院:2020中國冰雪旅遊發展
- 中國旅遊研究院:2023中國冰雪旅遊發展
- 行行AI公開課:如何用AI工具做好跨境電商AI
- 外媒:百度與英特爾合作共同開發AI神經網路處理器AI神經網路
- AI晶片行業發展的來龍去脈AI晶片行業
- AI晶片的長征之路:挑戰與機遇AI晶片
- 前微軟亞洲研究院副院長李世鵬加盟訊飛,任AI研究院聯席院長微軟AI
- 36氪研究院:2020年中國“AI+安防”行業發展研究報告(附下載)AI行業
- 中國信通院:2022年AI框架發展白皮書(附下載)AI框架
- 明晚8點公開課 | 用AI給舊時光上色!詳解GAN在黑白照片上色中的應用AI
- 前沿探索|AI 在 API 開發測試中的應用AIAPI
- 棄局5G基帶晶片,全力進軍AI晶片!英特爾20億美元收購以色列晶片公司HabanaAI晶片