IBM取得記憶體計算新突破,AI訓練能耗降低80倍
IBM Research 稱,已經開發出了一種記憶體計算新方法,可以為微軟和谷歌尋求的高效能和機器學習應用的硬體加速器提供答案。
在近日 Nature Electronics 期刊上發表的一篇論文中,IBM 研究人員描述了這種新的 “混合精度記憶體計算” 方法。
IBM 關注傳統計算體系結構的不同看法,在這種體系結構中,軟體需要在單獨的 CPU 和 RAM 單元之間進行資料傳輸。
據 IBM 稱,這種被稱為 “馮·諾依曼” 的體系結構設計,為資料分析和機器學習應用製造了一個瓶頸,這些應用需要在處理單元和記憶體單元之間進行更大的資料傳輸。傳輸資料也是一個耗能的過程。
應對這一挑戰,IBM 給出的一種方法是模擬相變記憶體(PCM)晶片,該晶片目前還處於原型階段,500 萬個奈米級 PCM 器件組成 500×2000 交叉陣列。
PCM 的一個關鍵優勢是可以處理大多數密集型資料處理,而無需將資料傳輸到 CPU 或 GPU,這樣以更低的能量開銷實現更快速的處理。
IBM 的 PCM 單元將作為 CPU 加速器,就像微軟用於加速 Bing 和加強機器學習的 FPGA 晶片一樣。
據 IBM 稱,研究表明在某些情況下,其 PCM 晶片能夠以模擬的方式進行操作,執行計算任務,並提供與 4 位 FPGA 儲存器晶片相當的準確度,但能耗降低了 80 倍。
模擬 PCM 硬體並不適合高精度計算。所幸的是,數字型 CPU 和 GPU 是適合的,IBM 認為混合架構可以實現更高效能、更高效率和更高精度的平衡。
這種設計將大部分處理留給記憶體,然後將較輕的負載交給 CPU 進行一系列的精度修正。
根據 IBM 蘇黎世實驗室的電氣工程師、也是該論文的主要作者 Manuel Le Gallo 稱,這種設計有助於雲中的認知計算,有助於釋放對高效能運算機的訪問。
Le Gallo 表示:“憑藉我們現在的精確度,我們可以將能耗降低到是使用高精度 GPU 和 CPU 的 1/6。”
“所以我們的想法是,為了應對模擬計算中的不精確性,我們將其與標準處理器結合起來。我們要做的是將大量計算任務轉移到 PCM 中,但同時得到最終的結果是精確的。”
這種技術更適合於如數字影像識別等應用,其中誤解少數畫素並不會妨礙整體識別,此外還有一些醫療應用。
“你可以用低精度完成大量計算——以模擬的方式,PCM 會非常節能——然後使用傳統處理器來提高精度。”
對於只有 1 兆位元組大小的 IBM 原型記憶體晶片,現在還處於初期階段。為了適用於現代資料中心的規模化應用,它需要達到千兆位元組的記憶體量級,分佈在數萬億個 PCM 中。
儘管如此,IBM 認為可以通過構建更大規模的 PCM 裝置或使其中 PCM 並行執行來實現這一目標。
原文釋出時間為:2018-04-21
本文來自雲棲社群合作伙伴新智元,瞭解相關資訊可以關注“AI_era”。
原文連結:IBM 取得記憶體計算新突破,AI 訓練能耗降低 80 倍
相關文章
- IBM 量子計算研究取得突破,科學家可以控制單個原子IBM
- pytorch,訓練模型時記憶體佔用不斷上升PyTorch模型記憶體
- node計算記憶體佔用記憶體
- 低價策略幫助AI企業降低模型訓練成本AI模型
- Pytorch訓練時視訊記憶體分配過程探究PyTorch記憶體
- Redis In Action 筆記(七)降低記憶體使用Redis筆記記憶體
- 田淵棟等人新作:突破記憶體瓶頸,讓一塊4090預訓練7B大模型記憶體大模型
- 計算機記憶體管理介紹計算機記憶體
- MySQL記憶體佔用計算公式MySql記憶體公式
- 計算機作業系統——虛擬記憶體與實體記憶體計算機作業系統記憶體
- 隱私計算 FATE - 模型訓練模型
- 手機記憶體卡大小的計算記憶體
- 隱私計算FATE-模型訓練模型
- EEPROM與記憶體Flash消耗能量計算記憶體
- Redis 實戰 —— 12. 降低記憶體佔用Redis記憶體
- struct結構體大小的計算(記憶體對齊)Struct結構體記憶體
- 新興記憶儲存MRAM保持精度並降低功耗
- 一文看懂資料分析必備計算功能—記憶體計算記憶體
- [20191115]oracle例項佔用記憶體計算.txtOracle記憶體
- 深度解讀昇騰CANN記憶體複用技術,降低網路記憶體佔用記憶體
- 記憶體計算顯著降低,平均7倍實測加速,MIT提出高效、硬體友好的三維深度學習方法記憶體MIT深度學習
- Nature封面:AI訓練AI,越訓越離譜AI
- 回顧:神經擬態計算需求下的6種新記憶體技術記憶體
- ML2021 | (騰訊)PatrickStar:通過基於塊的記憶體管理實現預訓練模型的並行訓練記憶體模型並行
- Diffusion預訓練成本降低6.5倍,微調硬體成本降低7倍!Colossal-AI完整開源方案低成本加速AIGC產業落地AIGC產業
- 程式設計師修仙之路--突破記憶體限制的高效能排序程式設計師記憶體排序
- [轉帖]關於記憶體管理:計算頁表大小記憶體
- MRAM與常用計算機記憶體的效能比較計算機記憶體
- CVPR 2022 | 這個自蒸餾新框架新SOTA,降低了訓練成本,無需修改網路框架
- w10計算機記憶體不足怎麼辦_w10計算機記憶體不足請關閉以下程式解決方法計算機記憶體
- JS中堆疊記憶體的練習JS記憶體
- Epoch AI:硬體佔訓練前沿AI模型成本的47-67%AI模型
- 記憶體池設計記憶體
- 記憶力訓練:解鎖大腦潛能的鑰匙
- 開源大模型佔GPU視訊記憶體計算方法大模型GPU記憶體
- 2024.11.20訓練記錄
- 20241103 訓練記錄
- 2024.9.19訓練記錄