基於SRAM的方法可加速AI推理

宇芯電子發表於2020-09-17

一種新穎的深度學習加速器。專用單元定義了一個 ,該單元可以處理矩陣乘法,量化,儲存以及推理處理器所需的其他工作。
 
在Spice模擬中,當使用8位整數數學識別手寫數字時,該設計可提供100兆次操作/秒/瓦(TOPS / W)。它的計算密度可以擊敗Google的TPU一個數量級。
 
該設計是使用記憶體中計算方法的加速器產品線中最新的一種。設計使用40奈米NOR快閃記憶體單元的深度學習處理器,其目標是為監視攝像機等裝置使用低功耗晶片。
 
設計時使用了很少的類比電路,因此可以擴充套件到精細的工藝節點。它可能成為低功耗處理器中引擎(從邊緣到雲)的引擎。

 

獨特的方式操縱SRAM單元以處理深度學習任務

 
這個設計使使用者可以為從權重到神經網路層甚至單個神經元的所有內容建立自定義引數。這種靈活性可以使將來設計用於訓練處理器的設計成為可能。但是尚無用於對該設計進行程式設計的軟體堆疊,可能會在以後解決或留給將來的客戶使用。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69975830/viewspace-2721915/,如需轉載,請註明出處,否則將追究法律責任。

相關文章