IBM取得記憶體計算新突破,AI訓練能耗降低80倍

技術小能手發表於2018-04-23

IBM Research 稱,已經開發出了一種記憶體計算新方法,可以為微軟和谷歌尋求的高效能和機器學習應用的硬體加速器提供答案。

在近日 Nature Electronics 期刊上發表的一篇論文中,IBM 研究人員描述了這種新的 “混合精度記憶體計算” 方法。

IBM 關注傳統計算體系結構的不同看法,在這種體系結構中,軟體需要在單獨的 CPU 和 RAM 單元之間進行資料傳輸。

據 IBM 稱,這種被稱為 “馮·諾依曼” 的體系結構設計,為資料分析和機器學習應用製造了一個瓶頸,這些應用需要在處理單元和記憶體單元之間進行更大的資料傳輸。傳輸資料也是一個耗能的過程。

應對這一挑戰,IBM 給出的一種方法是模擬相變記憶體(PCM)晶片,該晶片目前還處於原型階段,500 萬個奈米級 PCM 器件組成 500×2000 交叉陣列

PCM 的一個關鍵優勢是可以處理大多數密集型資料處理,而無需將資料傳輸到 CPU 或 GPU,這樣以更低的能量開銷實現更快速的處理。

IBM 的 PCM 單元將作為 CPU 加速器,就像微軟用於加速 Bing 和加強機器學習的 FPGA 晶片一樣。

據 IBM 稱,研究表明在某些情況下,其 PCM 晶片能夠以模擬的方式進行操作,執行計算任務,並提供與 4 位 FPGA 儲存器晶片相當的準確度,但能耗降低了 80 倍

模擬 PCM 硬體並不適合高精度計算。所幸的是,數字型 CPU 和 GPU 是適合的,IBM 認為混合架構可以實現更高效能、更高效率和更高精度的平衡。

這種設計將大部分處理留給記憶體,然後將較輕的負載交給 CPU 進行一系列的精度修正。

根據 IBM 蘇黎世實驗室的電氣工程師、也是該論文的主要作者 Manuel Le Gallo 稱,這種設計有助於雲中的認知計算,有助於釋放對高效能運算機的訪問。

Le Gallo 表示:“憑藉我們現在的精確度,我們可以將能耗降低到是使用高精度 GPU 和 CPU 的 1/6。”

“所以我們的想法是,為了應對模擬計算中的不精確性,我們將其與標準處理器結合起來。我們要做的是將大量計算任務轉移到 PCM 中,但同時得到最終的結果是精確的。”

這種技術更適合於如數字影像識別等應用,其中誤解少數畫素並不會妨礙整體識別,此外還有一些醫療應用。

“你可以用低精度完成大量計算——以模擬的方式,PCM 會非常節能——然後使用傳統處理器來提高精度。”

對於只有 1 兆位元組大小的 IBM 原型記憶體晶片,現在還處於初期階段。為了適用於現代資料中心的規模化應用,它需要達到千兆位元組的記憶體量級,分佈在數萬億個 PCM 中。

儘管如此,IBM 認為可以通過構建更大規模的 PCM 裝置或使其中 PCM 並行執行來實現這一目標。

原文釋出時間為:2018-04-21

本文來自雲棲社群合作伙伴新智元,瞭解相關資訊可以關注“AI_era”。

原文連結:IBM 取得記憶體計算新突破,AI 訓練能耗降低 80 倍


相關文章