​谷歌用AI設計AI晶片,縮短設計週期

半導體行業觀察發表於2020-03-24
當下,有大量的資金充裕被用來開發那些專門用於更快,更高效地執行AI演算法的AI晶片。但問題在於現在設計晶片需要花費數年的時間,並且機器學習演算法的發展比這快得多。理想情況下,您需要一種經過優化可用於當今AI的晶片,而不是兩到五年前的AI晶片。
 
針對這個問題,Google的解決方案是讓AI設計AI晶片。
 
他們在一篇論文中寫道:“我們相信正是AI本身將縮短晶片設計週期,在硬體與AI之間建立共生關係的手段,而兩者之間的相互推動又推動了這一進步。”
 
“我們已經看到有些演算法或神經網路體系結構……在現有的加速器中表現不佳,因為加速器的設計是兩年前定義的,但那時的神經網路早就不存在了,” Google的高階研究科學家Azalia Mirhosein說i。“如果能縮短晶片設計週期,那我們就我們可以縮小差距。”
 
Mirhoseini和高階軟體工程師Anna Goldie提出了一個神經網路,可以學習做一個特別耗時的設計部分——placement。在對晶片設計進行了足夠長時間的研究後,它可以在不到24小時的時間內為Google Tensor處理單元完成設計,這個產品在功耗,效能和麵積方面的表現,優於人類專家花費了數週時間設計的產品。
 
我們知道,placement非常複雜且耗時,因為它涉及放置邏輯和記憶體塊或稱為巨集的那些塊的群集,從而使功率和效能最大化,並且晶片面積最小化。但這些設計面臨的挑戰是——必須在遵守互連密度規則的同時進行所有這些工作。Goldie和Mirhoseini的目標是晶片placement,,因為即使使用當今的先進工具,人類專家也需要花費數週的迭代時間才能得出可接受的設計。
 
Goldie和Mirhoseini將晶片placement建模為強化學習問題。與典型的深度學習不同,強化學習系統不會訓練大量的標籤資料。相反,他們會邊做邊學,並在成功時根據獎勵訊號調整網路中的引數。在這種情況下,獎勵是降低功率,改善效能和減少面積的組合的替代指標。結果,佈局機器人執行的設計越多,其任務就會越好。

該團隊希望像他們一樣的AI系統將使得在同一時間段內設計更多的晶片,以及執行速度更快,功耗更低,製造成本更低,佔地面積更少的晶片”的設計。

用AI設計晶片,兩大EDA巨頭也在路上

在本月中,EDA巨頭Synopsys和Cadence也都發表了相關的AI設計晶片方案。

Synopsys推出了業界首個用於晶片設計的自主人工智慧應用程式——DSO.ai™(Design Space Optimization AI),這是電子設計技術上所取得的重大突破。DSO.ai™解決方案的創新靈感來源於DeepMind的AlphaZero,使得AI在圍棋、象棋領域遠超人類。作為一款人工智慧和推理引擎,DSO.ai能夠在晶片設計的巨大求解空間裡搜尋優化目標。該解決方案大規模擴充套件了對晶片設計流程選項的探索,能夠自主執行次要決策,幫助晶片設計團隊以專家級水平進行操作,並大幅提高整體生產力,從而在晶片設計領域掀起新一輪革命。
 
根據官方介紹,DSO.ai解決方案通過實現廣泛設計空間的自主優化,徹底革新了搜尋最佳解決方案的過程。該引擎通過獲取由晶片設計工具生成的大資料流,並用其來探索搜尋空間、觀察設計隨時間的演變情況,同時調整設計選擇、技術引數和工作流程,以指導探索過程向多維優化的目標發展。DSO.ai採用新思科技研發團隊發明的尖端機器學習技術來執行大規模搜尋任務,自主執行成千上萬的探索向量,並實時獲取千兆位元組的高速設計分析資料。
 
同時,DSO.ai可以自主執行如調整工具設定等次要決策,為開發者減負,並讓晶片設計團隊接近專家級水平進行操作。此外,整個設計團隊可以高效分享和運用相關知識。這樣級別的高生產效率,意味著開發者能處理更多專案,並專注於更具創造性、更有價值的任務。
 
他們進一步指出,通過大規模擴充套件設計工作流程,DSO.ai讓使用者能夠立即洞悉難以探索的設計、工藝和技術解決方案空間。藉助可見性的增強,晶片設計團隊可以在預算和進度內,將更好效能和更高能效的差異化產品推向市場。這意味著設計團隊得以最大程度地發揮晶片工藝技術的優勢,並不斷突破設計規模的極限。
 
藉助DSO.ai解決方案,開發者的工作效率將大大提高,次要任務則可實現完全自動化執行。DSO.ai能大幅縮短晶片設計團隊為新市場建立產品的交付時間,同時加速開發現有產品的衍生品,這意味著晶片設計團隊能輕鬆地根據產品的不同功能集合來重新定位不同市場。
 
此外,DSO.ai能充分利用最有價值的資源,即工程設計創造力。開發者能夠從費時的手動操作中解放出來,並接手新專案的工作,而新員工則能快速上手且達到經驗豐富的專家水平,此外設計和製造的總體成本也被降至最低。
 
另一個EDA巨頭Cadence則釋出業界首款基於機器學習引擎的新版數字全流程。據官方介紹,這是一個已經過數百次先進工藝節點成功流片驗證的新版CadenceÒ 數字全流程,進一步優化功耗,效能和麵積,廣泛應用於汽車,移動,網路,高效能運算和人工智慧(AI)等各個領域。流程採用了支援機器學習(ML)功能的統一佈局佈線和物理優化引擎等多項業界首創技術,吞吐量最高提升3倍,PPA最高提升20%,助力實現卓越設計。
 
據介紹,經過多項關鍵技術,全新Cadence數字全流程實現了PPA和吞吐量的進一步提升:
 
Cadence表示,iSpatial技術將Innovus™ 設計實現系統的GigaPlace™ 佈線引擎和GigaOpt™ 優化器整合到Genus™ 綜合解決方案,支援佈線層分配,有效時鐘偏移和通孔支柱等特性。iSpatial技術讓使用者可以使用統一的使用者介面和資料庫完成從Genus物理綜合到Innovus設計實現的無縫銜接。
 
其整合的ML功能可以讓使用者用現有設計訓練iSpatial優化技術,實現傳統佈局佈線流程設計裕度的最小化。
 
此外數字全流程採用統一的設計實現,時序籤核及電壓降籤核引擎,通過所有物理,時序和可靠性目標設計的同時收斂來增強籤核效能,幫助客戶降低設計裕度,減少迭代。
 
也許,我們期待的AI改變晶片設計時代,很快就要到來。

相關文章