ISSCC2025 Computing-In-Memory Session 趨勢整理

sasasatori發表於2024-11-25

今天下午ISSCC 2025釋出會開完,CIM Session花落誰家終於清楚了。今年CIM被放到了Session 14,共錄取七篇,投稿數如果和去年差不多的話,那麼錄取率應該是進一步下降了(去年錄取了九篇)。只能說體感上來說就明顯越來越卷。

還是先來看一下錄取的Paper:

image

image

7篇都來自遠東,兩篇臺灣,五篇大陸,東南大學一己之力貢獻3篇,非常牛逼。當然兩篇highlight仍然是屬於臺灣的。

聊聊對趨勢的一些簡單看法。

從儲存介質的角度上來看,除了一篇Gain Cell和一篇STT-MRAM之外,其他五篇都是SRAM。和去年的百花齊放有所不同(去年Gain Cell,eDRAM,Flash,SRAM,RRAM都有),今年來看種類上相對來說比較單一,可能也是沒有整出什麼新的好活導致的。Gain Cell去年已經發過一篇,今年這篇14.2仍然是同單位,STT-MRAM去年沒有作客CIM Session,今年又殺回來了。

從大的topic上來說,其實很明顯可以感受到浮點CIM的問題還是有挖掘的空間,14.2,14.3,14.4,14.5四篇文章都在繼續做FP CIM的主題,當然大家動機各有不同,14.2,14.3,14.4是衝著改進之前的預對齊浮點方案去的(實際上預對齊這招確實槽點很多),14.5對預對齊做了一點有限的改進,更主要的還是嘗試把它和其他的場景做一下結合(比如訓練)。

從型別上來看,一個模擬(14.1),一個混合域(14.6),剩下的都是數字。但這裡想聊聊我的一個insight,其實數字的本質就是rail to rail的模擬,從訊號的角度上來說,數字用最大的訊號幅度去編碼最少的資訊(位元),而模擬用非軌到軌的更小訊號幅度去編碼更多的資訊,所以從效率上來看,模擬域內的運算似乎有一定的優勢,但問題在於兩個點,一個是模擬域轉換回數字域時的ADC開銷跟模擬的訊號幅度以及編碼密度之間有著至少逆線性乃至逆指數關係的巨大開銷,這代表著在模擬域內運算的高效優勢可能會很快被抵消掉;另一個點是,模擬的編碼方式實際上可以理解成是用SNR去trade效率,訊號幅度越小或編碼密度越高,效率自然越高,但是對應的SNR也就越差。第二點其實是我想通之後改變方法論的一個做法,用SNR去trade效率這種方法,我在數字裡面也可以做,也就是用近似計算的思路用精度去換面積/能耗上的降低。同時我可以規避掉轉換帶來的開銷問題,以及fabricate時模擬需要的一些calibrate,或者PVT上帶來的問題,今年和工業界的一些人也在聊,至少在產品上去用(不管是做算力的,還是打算做邊緣端SoC的),大家會異曲同工的偏好數字的方案。而近似計算本身就是一個有趣的topic,之前雖然ISSCC上有很多工作也挖掘過,但我覺得其實可以研究的問題還有很多,這是一個大的方向,我覺得值得長期往下做下去,去作為一個好的問題挖掘挖掘。

最後聊一下計算負載的問題,14.1關注了貝葉斯神經網路,14.3關注了CNN和Transformer兩類負載的支援問題(這也是去年就有的一個trend)。14.5關注了edge training的問題。14.7提出了一個direction searching的負載,打破了長期以來CIM一直關注神經網路型別負載的狀態。

總體上來看,感覺今年的CIM Session沒有像去年那種很多新topic湧現的感覺,更多是對之前有的topic(hybrid CIM,FP CIM,CNN + Transformer)這些問題的進一步討論。但FP CIM的正規化透過三篇異曲同工的工作對預對齊方案做了一波撥亂反正還是挺有意思的,可以等論文正式放出來後看看具體的做法。14.7提出了非神經網路的負載,可能也意味著大家對於CIM的定義進一步放寬了,也許後面會有更多非網路的domain specific的任務透過CIM的方式做出來。

最後提提感想,今年拿下第二篇,更多的感覺是幸運,優秀的工作很多,能夠殺出重圍確實不容易。今年的工作從構思,工程實現到論文整體上比去年絲滑了很多,也是吃了一波經驗增長的紅利。希望後續還能再出一些更好的工作。

相關文章