我們都清楚,訓練 SOTA 人工智慧系統往往需要耗費大量的計算資源,這意味著資金雄厚的科技公司的發展程式會遠遠超過學術團隊。但最近的一項研究提出了一種新方法,該方法有助於縮小這種差距,使得科學家可以在單個計算機上解決前沿的 AI 問題。 OpenAI 2018 年的一份報告顯示,用於訓練遊戲 AI 的處理能力正在快速地提升,每 3.4 個月翻一番。其中對資料需求量最大的一種方法是深度強化學習,透過在數百萬個模擬中迭代,AI 在反覆試錯中進行學習。《星際爭霸》和《Dota2》等電子遊戲領域取得了令人矚目的新進展,但都依賴封裝了數百個 CPU 和 GPU 的伺服器。 針對這種情況,Cerebras System 開發的 Wafer Scale 引擎能夠使用單個大晶片來替換這些處理器,這個晶片為訓練 AI 進行了完美的最佳化。但是由於價格高達數百萬,所以對於資金短缺的研究人員來說是可望不可即的。 最近,來自南加州大學和英特爾實驗室的研究團隊建立了一種新方法,該方法可以在學術實驗室常見的硬體上訓練深度強化學習演算法。該研究被 ICML 2020 會議接收。