谷歌開放TPU應對英偉達GPU挑戰

人工智慧快報發表於2018-03-23
640?wx_fmt=png&wxfrom=5&wx_lazy=1

谷歌宣佈將以“有限數量”向谷歌雲客戶開放張量處理器(Tensor Processing Unit,簡稱TPU)服務,按時收費,每小時成本6.50美元。

谷歌宣佈張量處理單元(TPU)現在已經可以在谷歌雲平臺上供研究人員和開發人員試用,該模組是為谷歌服務(如Search、Street View、Google Photos和Google Translate)提供神經網路計算支援的定製晶片。

TPU是一個定製的特定於應用程式的積體電路(ASIC),專門為TensorFlow上的機器學習工作負載定製。谷歌兩年前推出了TPU,去年釋出了第二代雲TPU。第一代TPU僅用於推理,而云TPU則適用於推理和機器學習訓練。使用四個定製ASICs構建的雲TPU提供了一個健壯的64GB的高頻寬記憶體和180TFLOPS的效能。

在向公眾開放之前,谷歌已經在內部廣泛地實施了這些TPU。阿爾法狗(AlphaGo)使用48個TPU進行推斷,在圍棋遊戲中擊敗了人類冠軍。雲TPU為縮短機器學習模型的訓練時間提供了很好的解決方案。谷歌大腦(Google Brain)小組領導Jeff Dean在Twitter上發文說,雲TPU可以在24小時內將一個ResNet-50模型訓練到75%的精度。

當雲TPU釋出的時候,Google為機器學習研究人員提供了1000個免費裝置。Lyft是美國第二大叫車公司,自去年以來,一直在其自動駕駛系統中使用雲TPU。該公司的軟體自主駕駛5級主管阿南塔·坎切拉(Anantha Kancherla)說:“自從與谷歌雲TPU合作以來,我們對他們的速度印象非常深刻——通常需要幾天時間才能完成的工作現在可能需要數小時。”

位於紐約的對衝基金雙西格瑪的技術長阿爾弗雷德·斯佩克特(Alfred Spector)說:“我們發現,將張量流工作負載轉移到谷歌TPUs,極大地降低了新模型的程式設計複雜性和訓練時間,提高了我們的生產率。”

谷歌的雲TPU目前還在測試版,僅提供有限的數量和使用。開發者可以每小時6.50美元的價格租用雲TPU,因其擁有強大的計算能力,這似乎是一個合理的價格。

Google還發布了幾個模型實現工具,以節省開發者的時間和精力為雲TPUs編寫程式,包括ResNet-50和其他流行的影像分類模型、機器翻譯和語言建模的轉換器,以及用於物件檢測的RetinaNet。

儘管谷歌目前沒有直接向客戶銷售TPU晶片,但它們的可用性對英偉達(Nvidia)仍是一個挑戰,英偉達的GPU目前是世界上使用最多的AI加速器。甚至Google也使用了大量的英偉達GPU來提供加速的雲端計算服務。然而,如果研究人員像預期的那樣從GPU切換到TPUs,這將減少Google對英偉達的依賴。

2017年,谷歌(Google)吹噓它的TPUs比當代的GPUs和CPUs快15至30倍,TOPS/Watt標準提高了30–80倍。在機器學習訓練中,雲TPU的效能(180比120TFLOPS)比Nvidia最好的GPU Tesla V100的記憶體容量(64GB比16GB)高4倍。

雖然現在將雲TPU譽為AI晶片冠軍還為時尚早,但它的釋出讓研究者們興奮,標誌著谷歌雄心勃勃的進軍人工智慧加速器領域的開始。

640?wx_fmt=png640?wx_fmt=jpeg

相關文章