中科院計算所研究員陳雲霽:深度學習處理器的現狀及發展 | 北大AI公開課筆記
主講人:陳雲霽 | 中科院計算機所研究員
整理:陳銘林 張康
量子位 出品 | 公眾號 QbitAI
3月28日週三晚,北京大學“人工智慧前沿與產業趨勢”第五講,本期中科院計算機所研究員陳雲霽授課主題為“深度學習處理器的現狀及發展”,分享了深度學習的工作方式、深度學習處理器的發展、寒武紀目前的科研成果等相關內容。
全程從有趣的案例出發,深入淺出地拆解相關技術知識,量子位作為獨家合作媒體,為大家帶來詳細課程筆記一份。
課程導師:雷鳴,天使投資人,百度創始七劍客之一,酷我音樂創始人,北京大學信科人工智慧創新中心主任,2000年獲得北京大學計算機碩士學位,2005年獲得史丹佛商學院MBA學位,同時也是“千人計劃”特聘專家。
主講嘉賓:陳雲霽,中科院計算所智慧處理器研究中心主任。14歲就讀於中科大少年班,24歲博士畢業於中科院計算所,29歲起任中科院計算機所研究員(正教授)、博導。目前是中科院計算所智慧處理器研究中心主任,中國科學院腦科學卓越中心特聘研究員,以及中國科學院大學崗位教授。他帶領其團隊研製了國際上首個深度學習處理器晶片寒武紀,被MIT技術評論評為全球35位傑出青年創新者(2015年度)。
智慧應用成為計算機主要負載
寒武紀做智慧晶片最主要的目標就是去完成各種各樣的智慧計算任務,為它們提供核心晶片的支撐。我們看到有這樣一個趨勢:計算機已經不僅僅是科學家和工程師計算的一個工具,而是幫我們從日常重複的事物中解放出來,很多智慧已經成為我們日常生活中常見的一些任務。
智慧應用成為計算機最主要的負載,比如說在超級計算機上做的商業分析、藥物研製,或者是資料中心的廣告推薦、自動翻譯,還包括手機裡的語音識別、影像分析,還有很多嵌入式裝置方面的機器人、自動駕駛、手環、手錶,其實背後最主要的還是在做智慧計算的任務。
這些智慧任務有很多,主要的處理方法主要有三種:符號主義、行為主義、聯結主義。
符號主義是希望能夠用符號邏輯把所有知識、需要解決的問題表達出來,再通過邏輯求解器把這些問題解決掉。符號主義的實施比較難,所以現在並不是那麼的流行了。
行為主義,機器人就是偏這一塊的,也就是希望從行為上一開始能做到一個月小孩的智慧水平,再繼續做,再達到一歲多小孩的能力,這樣逐漸提升。雖然行為主義有這樣的一個框架,但是卻沒有很好的實現手段。
所以目前來看,現在最主要的是聯結主義,這裡面的核心手段是人工神經網路,核心思想是:人的大腦是一個由生物神經元細胞組成的網路,這裡面大概有千億個神經元細胞、百萬億個突觸,有這麼多神經元和突觸組成的網路賦予人腦智慧。
深度學習
人工神經元
1943年有兩個科學家,一個叫W Mcculloch(心理學家)、一個叫W Pitts(數理邏輯學家),他們提出一個問題:我們能不能對人的大腦做一個數字化的抽象?於是就提出了人工神經網路這樣一套方法,這個方法背後的思想是:把人的大腦裡每一個神經元細胞抽象成一個數字,每個突觸抽象成一個數字,這個數字組成的網路從某種意義上來說就繼承了人腦處理智慧的能力,這就是現在的人工神經網路。
生物的神經元和人工的神經元實際上有非常大的區別,區別有多大呢?華老師有個比喻:生物神經元和計算機裡的人工神經元的區別就像老鼠和米老鼠的區別。米老鼠是對老鼠的一個抽象,把老鼠的很多特徵都抽取出來,比如鬍子、嘴巴等,但是老鼠身上的一些系統在米老鼠的身上就抽象掉了;另外一個方面,為了讓米老鼠現得更萌,讓更多小朋友能喜歡它,這可能是原本老鼠所不具備的東西。
計算機裡的人工神經網路和生物的神經細胞之間也有類似的區別。比如說,這裡面的生物神經元可能是這樣一個形狀,它裡面有一個細胞體,有軸突,有樹突,神經元碰到的地方我們稱為它的突觸,就是兩個神經元細胞的連線,那麼人工神經元看起來就簡單多了,黑圈表示神經元,神經元之間的東西可以稱為突觸或者稱為連線,紅圈代表它的權重。
看一個最簡單的人工神經網路,它只有一個神經元。先看它的構成,它可以從外界得到輸入,每個輸入都有一個權重,把輸入進行彙總的時候通過一個非線性的啟用函式就決定了它整個最後的輸出。
這麼簡單的一個人工神經元就可以完成一些有意思的問題,比如說分類問題。分類在人工智慧或者機器學習裡面非常基礎的、非常普遍的一個問題,比如對面走過來一個人,他叫什麼名字、我認不認識他,這就是一個典型的分類問題。如果能夠解決分類問題,那麼這種方法實際上就有一定的普適性了,可以解決很多其他的東西。
剛剛講的是一個神經元,很多個神經元在一起做什麼呢?深度學習就是一種多層大規模的人工神經網路,最早深度學習在提出的時候,就有部分借鑑了生物神經元的特點。神經元是在我們大腦皮層裡面,一般比較先進的生物會進化出一些比較複雜的皮層,逐層會對資訊進行抽象和提取,賦予了人一種比較強的智慧處理能力。
深度學習最早有一點點借鑑這種思想,也可以把人工神經網路做成很多層,像這個例子裡面,有一個Convolution層、有LRN(Local Response Normalization)層、有Pooling層、有Classifier層等不同型別的層。但是隨著深度學習的發展,不拘泥於過去這些生物的限制,人的大腦實際上只有六層,而現在的深度學習技術可能就是上百層、數百層甚至有上千層的網路。
深度學習工作方式和應用
看一個簡單的圖例,深度學習到底是怎麼工作的。
比如說在這個圖例裡,我們可能是一個5、6層的神經網路,第一層可以看到一些區域性簡單的特徵,比如對角線這樣的東西;再下一層神經網路做了一個更大範圍的卷積,會看到一個更大範圍、更復雜的特徵,比如說由環、圈、點這樣類似的東西;到下一層我們可以看到更大範圍更復雜的。
進行逐級抽象之後,就可以對一個複雜的圖片進行理解,比如豬、狗、貓等這些東西,像ImageNet、語音、自然語言處理裡都有非常多的比賽、挑戰賽,現在基本上是深度學習在主導著這個榜前幾名。
這裡有一個很著名的測試,用深度可以達到99%的準確度,不僅僅像MNIST這樣簡單的問題,還有像比較複雜的問題,比如人臉識別。機器在某些特定的工作條件下、邊界條件下,可以達到比人識別人臉更高的程度。但是從魯棒性條件來說,深度學習和人還是有一點點的差距的,但是這個差距我覺得是技術上彌補的,可能需要五年或者更長時間。
另外是語音識別,語音識別現在大家用的已經非常多了、已經是一個非常工業化的技術了。舉個例子比如說科大訊飛的語音輸入法,實際上這裡面都是在用深度學習的方法在做支撐。
2014年DeepMind就已經提出了一套深度學習加增強學習的框架,這裡面的含義就是說深度學習就是一個人工神經網路,但是這些人工神經網路的拓撲、引數、權重是怎麼得到的呢?它是通過增強學習這套框架不斷在現實中學習、調節、不斷在自然界中去使用神經網路,然後計算機再返回去調整這個神經網路的權重。
當時DeepMind用它去教會了計算機打很多種小遊戲,大概有幾十種。比如貪吃蛇這種遊戲,用這套框架,DeepMind就告訴計算機,只需要看著螢幕,只需要把這個遊戲的分數打得儘量高,不需要告訴計算機遊戲規則是什麼。
DeepMind讓計算機學會了打40多種小遊戲,而且有20多種超過了人類的世界記錄。然後,DeepMind又把這套深度學習加增強學習的框架用到了下圍棋方面,如大家所知,AlphaGo戰勝了很多人類世界冠軍,他們再把這套框架應用在更多的不同型別的棋類遊戲裡,都紛紛戰勝了人類的頂尖選手,所以說DeepMind的這套深度學習加增強學習框架是非常了不起的。
晶片與神經網路
我們為什麼要做專門的晶片來支援神經網路的應用呢?
其實原因很簡單,現在的晶片,比如說CPU、GPU,在進行深度學習處理的時候,效率是比較低下的。
從CPU的角度來說,2012年,有個非常知名的工作——谷歌大腦,谷歌大腦當時用1.6萬個CPU核跑了接近一週去訓練識別貓臉,這個工作當時在NIPS引起了非常大的反響,因為它把貓臉或者人臉識別的準確度顯著地提升。但是從另外一個角度上來看,它需要的計算資源太多了,並不是一個普通人、一個普通的企業,能夠有這麼多個CPU核去跑這麼複雜的任務。
另外一個例子是AlphaGo,它在跟李世石下棋的時候,當時用了1000多個CPU和200個GPU,平均每塊電費就需要接近3000美元。這反映了一個很實際的問題:現在人工智慧演算法的能耗實在是太高了,不管CPU還是GPU,都不足夠把這些演算法真正地用起來。
我們期望智慧時代的到來,期望大量智慧應用能夠落地,這裡面一定要有一個前提:物質載體要成熟。但是從現在來看,不管是CPU還是GPU,不管是效能還是能耗,現在晶片都不足以支撐。
另外還有一個更加長遠的問題:現在最複雜的人工神經網路演算法,裡面的突觸多達1000億多個,但是跟人的大腦相比還是有很大差別——人大概有百萬億個突觸。
這是一個從老鼠到米老鼠的比較,我們這裡的1000億個突觸是指人工神經網路裡的,而百萬億個突觸是人腦裡生物神經元的突觸,可能這兩者之間不能劃等號,但是它畢竟體現出了一個數量級的差別。
所以專門的人工神經網路處理器或者說深度學習處理器在未來不管從學術角度還是產業角度發展來看都是必然的事情,未來的每臺計算機都需要一個專門的深度學習處理器。
寒武紀的發展
我想這個是跟GPU具有同樣規模的潛在市場,非常幸運的是我們中科院計算所走得比國際同行要相對早一些,從2008年開始我們就開始做這方面的研究,團隊的名字就叫做寒武紀。
這些是我們具體做的一些工作。
2013年我們做了國際上第一個深度學習架構,這個工作獲得了ASPLOS最佳論文獎,這是在亞洲地區,在計算機體系結構頂級會議上的首次拿獎。
這個工作實際上是在通用CPU十分之一的面積上做到了它百倍的效能,後來做了一系列相關工作,包括國際上第一個多核深度學習處理器、國際上第一個商用深度學習處理器等等,獲得了一批頂級會議的最佳論文。
應用
目前我們有了一些比較廣闊的應用,主要包括雲伺服器和手機等幾個方面的應用。
現在華為的一些高階機型,比如Mate系列、P系列、榮耀V系列都整合了寒武紀的深度學習處理器,為它提供了本地實時智慧處理能力。華為在上面做了好多應用,比如拍照時候識別出來你拍了什麼東西,可以自動調節光圈、快門等,這些跑在寒武紀深度學習處理器上時,你就不需要聯網了,可以實時本地完成這些任務。
除此之外還有一些雲伺服器的應用,和阿里、聯想、中科曙光等這些企業都有合作。
寒武紀的學術貢獻
在做深度學習處理器的過程中,我們在學術上還有一些貢獻。
傳統的思路是特定演算法硬體化的思路,沒有辦法解決深度學習處理器的需求。深度學習不是一個特定的演算法,而是一大類演算法,它有處理語音的、有處理影像的、有處理自然語言的、有下棋的、也有做廣告推薦的,但是更麻煩的是世界上至少有幾十萬個研究機器學習的人,每天都會有機器學習演算法出來,過去那種思路,對深度學習來說是不可能解決的,因為晶片的研製週期很長,你花兩年的研製出晶片來,這時候世界又冒出幾十、幾百個新的演算法來,如果晶片無法支援,這個晶片就白做了。
這裡面涉及到三個科學的問題:
第一、 有限規模的硬體怎麼支援任意規模的演算法?這裡面的思想是這樣:做一個深度學習處理器,它裡面是用硬體電路來做突觸和神經元,你怎麼用有限規模的硬體去面對幾乎無限規模的演算法。
第二、 結構固定的硬體怎麼去應對千變萬化的演算法?晶片還是一個鐵疙瘩,它做好之後哪些突觸跟神經元有連線都已經確定了;但是演算法不是這樣的,比如在手機上面,要跑語音的、影像識別的、自然語言理解的,不同的演算法的拓撲、連線都是不同的,一個固定的硬體怎麼把它們解決掉。
第三、 能耗受限的硬體怎麼應對精度受限的演算法?我們設計硬體的時候,它是有些固定的約束,比如要用在手機上,那麼就一定不能超過一瓦,不然手機就發燙。但另外一方面是精度受限的演算法,做演算法的工程師不考慮受限的情況,只考慮把精度做的越高越好,所以做硬體和做演算法的人之間的思路是存在一個矛盾。
虛擬化的同時降低開銷
有限規模的硬體怎麼應對任意規模的演算法?我們的思想很簡單:硬體神經元的虛擬化,我通過複用,把有限規模的硬體虛擬成大規模的人工神經網路。看一個很容易理解的例子:我們要處理一個非常大的人工神經網路,就是PPT中白色圈,但是我們硬體又很小,那怎麼辦呢?
把這個大的要處理的邏輯人工神經網路切成很多個小塊,每個小塊我們對映到硬體上的每個小塊上去處理,通過螞蟻搬大米的方式:用一個有限大小的硬體,處理另一大規模的演算法。有一個很大的好處是:如果演算法變了,硬體並不需要變,比如再加一層,或者說再加一些神經元,只要把虛擬化的軟體稍微調一下就可以。
但是,在這個虛擬化的過程中,其實是帶來了開銷,也就是需要做一些資料搬運,要把演算法神經元或邏輯神經元搬到硬體神經元上來。所以這裡面我們有很多更細節的技術,比如搬運的過程中,怎麼保證能夠不斷地重用神經元或者突觸的資料。這樣就導致一個結果:一方面在虛擬化中讓有限規模的硬體處理任意規模的演算法;另外一個方面,虛擬化過程中,資料基本上是能夠大幅度重用的,沒有太多資料搬運的開銷。
指令集
結構固定的硬體如何去應對千變萬化的演算法。這裡面的思想是:自動化抽取各種各樣的深度學習+機器學習演算法的貢獻的基本運算元。通過這個方式我們設計了國際上第一個智慧的指令集。
為什麼做深度學習指令集要用機器學習呢?一方面,全世界可能有100萬人做深度學習,每天都能搞出一些演算法;另一方面,這麼多搞深度學習的人,他們每天變來變去,但是萬變不離其宗,基本的trick都是幾十年來傳承下來,就那麼幾招,而這些招數就在上百種的機器學習演算法裡。
這些機器學習演算法模型都不一樣,有的是概率模型,有的是線性模型,有的是非線性模型,有的是神經網路的模型,有的是SVM的模型,還有其他不同型別的演算法,把這上百種機器學習演算法都分析一遍,我們就能確保,即便未來再出了新的深度學習演算法,也跳不出我們的手掌心。
我們2013年和2014年做了第一個深度學習處理器的架構,到現在,像GAN,Fast R-CNN這些各種各樣新的演算法層出不窮,但是依然能夠高效地支援,就是因為我們把可能的套路都已經分析的比較清楚。
分析套路具體是做什麼呢?
第一、 把這些演算法全部拉出來,做一個最耗時最需要運算操作的集合,做這個合集是為了分析做深度學習處理器需要什麼樣的部件。
第二、 尋找機器學習演算法中的快取的,讀取資料的共性,自己來設計變數儲存。所以就看到很多機器學習演算法:KNN、K-means、SVM、樸素貝葉斯、貝葉斯網路等等
這樣得出一個結論:世界上可能有上百種機器學習演算法,但是他們裡面共性的運算都是很固定的,就這幾種:向量內積,向量距離,計數,非線性函式,排序等等。
另外還找到一個共性,我們稱為“三個柱子”:一個資料區域性現象的共性,用機器學習的方法,對機器學習的演算法再做一次分析,把一個機器學習演算法裡面所有的變數都拿出來,對它做一個聚類。然後發現,不管重用模式,重用距離還是重用次數,從訪問寬度上來看,一般來說每個機器學習演算法裡面的變數也就兩到三類。
我們找到了機器學習演算法裡的共性,找到了共性的快取的模式,之後設計了一套專門的指令集,能夠高效支援各種各樣的機器學習演算法,深度學習演算法。
具體怎麼支援呢?出現一個新的演算法,只需要指令之間的拼接組合,就能夠把新的演算法給完成出來,這就解決了固定的硬體怎麼去應對千變萬化演算法的這個問題。
關於稀疏的方法
第三個學術貢獻,是關於稀疏的方法。
做硬體的這些人,包括我們,會受到最大的能耗限制:在手機上不能超過1W,在伺服器上因為封裝散熱的限制,晶片也不能超過300W。
如何應對呢?我們提出了一套稀疏神經網路處理器的這樣的一個思想。因為神經網路對計算誤差具有一定的容忍能力,尤其是對它進行一些重訓練之後還要做一些代償,於是就需要對神經網路進行稀疏化,這樣就能在有限的能耗下完成高精度的智慧處理。
但是這裡有一個問題:稀疏化的過程中,如何保證精度?稀疏掉了90%的神經元,在有的場景下可能精度不會降低,有的場景下可能精度就降低了。我們提出了一整套軟硬體的執行方法,可以自動判斷精度有沒有下降。
到底多小是非常小到可以稀疏化掉呢?就是閾值。比如這裡設0.01,如果發現0.01為閾值,最後精度下降了,那就把閾值調低一點,反過來說當使用者體驗不受影響的時候又可以把閾值調高一點。思路就是在執行時的環境中做動態調節。
國際影響力
寒武紀的學術貢獻也在國際上的同行中形成了一定的影響力。
在智慧晶片領域,國際上被他引最多的兩篇論文都來自我們這個團隊,前十的論文裡可能有接近一半是來自我們這個團隊。包括哈佛,史丹佛,普林斯頓,MIT,伯克利,哥倫比亞,英特爾等在內的國際上百個科研機構都在跟蹤寒武紀的前沿成果。
在精度和效能、功耗比上,我們比英偉達,谷歌,蘋果這些,仍然是有優勢的。去年年底, iPhone X和華為Mate10基本同時釋出,第三方測評報告裡,華為Mate10的深度學習處理器的效能要比iPhone X裡的效能高3倍左右,而華為Mate10的深度學習處理器是用的寒武紀的技術。今年2月份,Science雜誌對寒武紀的工作進行了深度的報導,並表示我們是業內的引領者。
寒武紀的夢想
想說一下寒武紀未來的夢想,這個夢想不一定能達成,但是我們會朝之努力。
希望把代表性智慧演算法的處理速度跟效能功耗比提升10000倍。為什麼是10000倍呢?因為谷歌大腦是1.6萬個CPU核,如果能夠提升1萬倍就意味著能夠把谷歌大腦這樣的東西能夠放到一個手機裡。
這樣的手機,不僅僅是幫助我們本地實時地完成各種影像語音和文字的識別和理解,更重要是它還具備訓練能力,能耗還很低,那麼它就可以不間斷的去觀察人、社會和自然界的行為,不斷提升自己的智慧。
雷鳴對話陳雲霽
寒武紀晶片,是通用的深度學習晶片麼?
對,我們做的就是通用的機器學習處理器,更準確的講應該說深度學習處理器是我們過去做的工作,現在做的是一個通用的機器學習處理器,不僅僅是深度學習演算法,包括KNN,K-means,支援向量機等等都可以完成。
我覺得這個對於產業落地來說重要且關鍵。如果晶片只能支援特定的演算法,應用面就會非常窄,會有很大的市場風險。而且晶片的成本非常高,做一個晶片,流片成本就應該在1億到2億之間人民幣。所以晶片如果沒有廣闊的應用面,不可能去用最先進的工具做一個最好的產品。
從現在寒武紀的進展來講,距離這些通用處理器還有多大距離呢?
距離應該說非常近了。我們在進行智慧處理的時候,能效比會比現在的GPU還有TPU都還要高不少。但是也必須說清楚,我們的應用面沒有GPU那麼廣,GPU畢竟還能做圖形處理,科學計算,做很多我們做不了的東西。
我們如果能做出和GPU一樣的東西,那坦率地說應該做不過英偉達,這是一個很實際的事情。但是我們在我們這個領域,其實是有實測資料的,明顯的要比TPU有一些優勢。這裡面有一個非常重要的原因:靈活性上有優勢。
關於什麼時候用得上,這也是大家比較關心的問題。這裡有兩個方面,第一個方面是終端,其實現在的華為手機都能用上了,很多公司已經面向寒武紀的處理器和指令集開始做App。另外一塊是雲端,這裡賣個關子,很快大家就會見到了。希望在做深度學習研究的老師同學,試一試寒武紀的東西。
如果想讓大家買的話,價效比怎麼樣?對通用平臺的支援,比如TensorFlow、Caffe,是不是可以無縫支援使用呢?
第一個問題我不清楚,我只管在計算所裡花錢研發,其他是陳天石的事情。(笑)
關於對通用平臺的支援,無縫都是可以的,包括TensorFlow、Caffe等等都可以。同時我們提供一套自己的程式語言,萬一有一些做機器學習的人開發一些新的演算法,如果過去的程式設計觀念支援不了,可以用我們的程式語言實現。實際上目前已經有很多公司去用了,他們也不怎麼需要寒武紀來做技術支援,就是因為我們把程式設計框架,底層的東西已經封裝好了,相當於能夠有一個無縫的接入。
我們經常說中國的晶片產業比較落後,現在寒武紀異軍突起,走的算是比較的快,整體來講你認為中國的晶片產業和美國比起來還有多長的路,大體上還差什麼?如果我們逐漸追趕的話這個路徑會是什麼樣的?
謝謝,我覺得這是中國所有做積體電路和半導體人的夢想。目前我的感覺是,如果中國有一家積體電路設計企業能成為世界領先,華為應該能算上。除了華為之外,像展訊,還有位元大陸。
從技術積累上看,華為在全方面都有很好的積累。但問題是華為,包括寒武紀,是一個積體電路設計企業。從中國的角度來說,整個行業,如果要走到世界前列,那麼就要整個鏈條都走到前列,而不是說幾家企業。
整個鏈條形成閉環就有很大的難度,涉及到產業鏈的方方面面。相對來說積體電路設計需要補課的內容不多,但是在生產包括EDA軟體,包括未來的一些東西,需要補課的地方還很多。所以我覺得我們只能大家一起努力,各個鏈條上,達到這個夢想。
你和弟弟從這種很學術化的場景,轉到去做產業的場景,能分享一下這個轉變有什麼比較困難的經歷,以及成功的經歷呢?
成功的經歷目前還沒有,還在路上。首先我和陳天石有分工,過去是他做演算法我做硬體,到後來我們要去做產業化,就是他做公司我做技術,所以他可能感受更深,我從一個旁觀者的角度來說能夠感覺到:做生意真累。
在座的老師同學們,如果不是百分百確信自己這麼強的熱情,最好不要輕易嘗試,很辛苦,不僅僅是每天需要到處跑,接觸各種各樣的人,面對的環境更復雜;更重要是壓力不一樣。
做技術研究者的壓力是:這次論文沒中,下次再投吧,總有一個期刊能適合我,中不了就再去投子刊物,總能中一個。但是做企業,其實寒武紀一直比較順暢,但是背後的壓力也很大。對於一個企業,我能明顯感覺到:一款產品,一個階段,一不小心踩空,可能就是一個巨大的打擊。
反正我覺得搞研究真的挺好的,叫我幹企業我肯定不幹。(笑)
雷總您覺得從做投資人和創業者這兩個角度看,您覺得哪個更有意思?
雷鳴:我覺得,可能還是和人的特點有關係。這兩種工作在能選擇的情況下差別很大。中國的或者全球的富豪榜,裡面找不到VC,因為雖然投資是很高大上的職業,但是主要是給別人掙錢。從賺錢的角度來看,這個職業平均收入極高,但是要是單點一個人巨高,還是要走創業這條路。
從實現夢想的角度來看,如果你真的有一個事情想把它做好,其實還是創業的比較多。因為作為投資人你覺得這個機會特別好,但是你覺得團隊不給力的時候,你沒什麼辦法,只是投資人而已;但是有一類人是,他喜歡的面比較廣,喜歡創新的這些東西,不太喜歡運營,這種就比較適合做投資。
人的本性就是如此,不專注就走不專注的路,逼著自己專注有時候可能也挺累的。
你對大家的發展有什麼建議,建不建議大家也做個晶片公司還是說建議大家現在著重學習些什麼,準備些什麼?
我還是從技術研究的角度來說,還是覺得大家要找一個自己真正非常喜歡的領域,去從事這方面的研究。做研究其實非常痛苦,如果不能得到樂趣,純功利的角度,那還挺悲催的。如果大家能夠選擇的話,根據自己的初心來選擇。如果有一天我選擇創業,那一定是我的研究需要一個公司作為一個平臺,來帶來更大的效應。
下期預告
下週三晚18:40,北京大學“人工智慧前沿與產業趨勢”第六講,將由百度自動駕駛首席架構師陳競凱為大家授課。
感興趣的小夥伴可以新增量子位小助手6:qbitbot6,備註“北大”,通過後可進入課程活動群,獲取每期課程資訊,與其他小夥伴互動交流。
祝大家聽課愉快~
學習資料
在量子位微信公眾號(QbitAI)介面回覆:“180330”,可獲取本次課程的視訊回放連結。
— 完 —
活動推薦
△ 點選圖片或閱讀原文
即可獲取更多詳情
聯想高校AI精英挑戰賽,覆蓋全國28個省份、8大賽區和260所高校,經過在中科大、華中科技大學、清華大學、上海交通大學等8所AI領域具有頂尖優勢的理工科高校的半決賽路演,產生最終入圍總決賽的十支參賽隊伍,於3月29日在北京中國科學院計算技術研究所舉行全國總決賽。
加入社群
量子位AI社群15群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot6入群;
此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。
進群請加小助手微訊號qbitbot6,並務必備註相應群的關鍵詞~通過稽核後我們將邀請進群。(專業群稽核較嚴,敬請諒解)
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話介面,回覆“招聘”兩個字。
量子位 QbitAI · 頭條號簽約作者
վ'ᴗ' ի 追蹤AI技術和產品新動態
相關文章
- 百度自動駕駛首席架構師陳競凱:自動駕駛的現狀及發展 | 北大AI公開課筆記...自動駕駛架構AI筆記
- 今日頭條AI實驗室主任李航:自然語言的現狀和發展 | 北大AI公開課筆記AI筆記
- 英特爾中國研究院院長宋繼強:AI的豐富應用與晶片發展 | 北大AI公開課筆記AI晶片筆記
- 深度學習高效計算與處理器設計深度學習
- 曠視首席科學家孫劍:計算機視覺的變革和挑戰 | 北大AI公開課筆記計算機視覺AI筆記
- 【雲端計算與大資料處理技術】公開課實況大資料
- Python深度學習(處理文字資料)--學習筆記(十二)Python深度學習筆記
- 360首席科學家顏水成:人工智慧雜談 | 北大AI公開課筆記人工智慧AI筆記
- MIT研究員警告:深度學習已經接近計算極限MIT深度學習
- 渡一教育公開課web前端開發JavaScript精英課學習筆記(一)前言Web前端JavaScript筆記
- 科大訊飛執行總裁胡鬱:AI賦能,智贏未來 | 北大AI公開課筆記AI筆記
- 機器學習筆記---資料預處理機器學習筆記
- AI大佬“互懟”:Bengio和Gary Marcus隔空對談深度學習發展現狀AI深度學習
- 零基礎如何學習雲端計算?雲端計算開發課程詳解
- React學習筆記-事件處理React筆記事件
- 機器學習課程筆記機器學習筆記
- 百頁課程筆記,統計物理視角下的深度學習筆記深度學習
- 黑馬公開課——執行原理與GC學習筆記GC筆記
- 雲端計算和Linux的學習發展路線Linux
- 雲端計算應用現狀及需求
- 學習筆記【深度學習2】:AI、機器學習、表示學習、深度學習,第一次大衰退筆記深度學習AI機器學習
- 雲端計算學習路線圖素材課件:雲端計算常用的開源工具開源工具
- 雲端計算學習路線教程大綱課堂筆記:Apache訪問控制筆記Apache
- 微信高階研究員解析深度學習在NLP中的發展和應用深度學習
- Dotnetty學習筆記——自定義初始化處理器Netty筆記
- 麻省理工深度學習基礎公開課.ppt深度學習
- Vue學習筆記之事件處理Vue筆記事件
- 雲端計算學習路線教程程式碼筆記: if巢狀功能語法解析筆記巢狀
- 【深度學習-基於Tensorflow的實戰】公開課實況深度學習
- 【大資料】離線批處理計算MapReduce | 複習筆記大資料筆記
- 計算機視覺實戰的深度學習實戰二:影像預處理計算機視覺深度學習
- 雲端計算教程學習入門影片課件:私有辦公雲是什麼?
- 【深度學習】深度學習md筆記總結第1篇:深度學習課程,要求【附程式碼文件】深度學習筆記
- 【學習筆記】計算幾何筆記
- 雲端計算開發學習教程,雲端計算基礎架構實現講解架構
- 雲端計算學習路線教程大綱課件:雲端計算開發程式設計條件結構程式設計
- 看人工智慧發展史,瞭解華為領先世界的昇騰AI計算處理器人工智慧AI
- 推薦一波知名學府的計算機/程式設計/AI免費公開課計算機程式設計AI