英偉達釋出史上最強GPU,卻叫停了自動駕駛車路測

AI科技大本營發表於2018-03-28

這裡寫圖片描述

作者 | DavidZh
出品 | AI科技大本營(公眾號ID:rgznai100)

當地時間 3 月 27 日,英偉達在美國聖克拉的 GTC 大會上推出多款產品。

▌顯示卡擴容,史上最強的 DGX-2 釋出

打頭陣的是搭載英偉達 RTX(Real-Time Ray Tracing)技術的工作站顯示卡 Quadro GV100。

它通過並聯兩塊 Quadro GPU 將記憶體擴充套件到了 64GB,可提供每秒 7.4 萬億次浮點運算的雙精度效能,深度學習浮點運算效能每秒可達 118.5 萬億次,還支援實時的 AI 去噪。

英偉達還將 Tesla V100 的記憶體容量升級到 32GB,與現有的 DGX 系統完全相容。

藉助全新的互聯架構 NVSwitch,英偉達將 16 塊新的 Tesla V100 顯示卡連線起來,組成了效能強勁的 DGX-2。GPU 之間互相通訊的速度高達 300 GB/s。

這裡寫圖片描述

這是業內首款能夠提供每秒兩千萬億次浮點運算(PFLOPS)能力的單點伺服器。在深度學習處理能力上,一臺 DGX-2 相當於 300 臺傳統的伺服器,但只佔據 15 個資料中心機架空間,其重量為 350 磅(約 317.5 斤)。黃仁勳稱,“DGX-2 是全球最大的 GPU。”

英偉達給出的定價是 39.9 萬美元,預計今年第三季度出貨。

這裡寫圖片描述

▌AI 推理很難,但更棒的開發包有了

面向 AI 開發者,英偉達還推出了新的推理軟體 TensorRT 4。受益於跟 Google 的合作,TensorRT 4 能更好地與 TensorFlow 做整合。廣受歡迎的語音識別框架 Kaldi 也對它做了優化。亞馬遜、 Facebook 及微軟等大公司在使用的 ONNX、WinML 等開發工具也有比較好的支援。

按照官方說法,TensorRT 4 適用於快速驗證、優化及部署在超大規模資料中心、嵌入式與汽車 GPU 平臺中經過訓練的神經網路。

這裡寫圖片描述

相比於 CPU,在 GPU 上利用 TensorRT 4 對計算機視覺、神經網路機器翻譯、語音識別、語音合成等應用進行深度學習推理,最快可將速度提高 190 倍。

▌新的醫療影像平臺和對外合作

除了這些,英偉達還面向醫療機構推出 Project Clara 平臺,其本質上是基於雲端的醫療影像成像服務。它的特點在於可以將傳統的 2D 影像轉變為更加立體的 3D 形式。

這裡寫圖片描述

英偉達還跟晶片設計公司 ARM 達成合作,將開源的 NVIDIA 深度學習加速器(NVDLA)架構整合到 Arm 的 Project Trillium 平臺上,從而更好地實現機器學習。

Project Trillium 是 ARM 今年 2 月推出的機器學習專案,擁有較高的靈活和可擴充套件性。而 NVDLA 是一個免費的開放式架構,可以加速深度學習推理的採用程式。

NVDLA 的開發者套件中也包含 TensorRT,這讓軟體演算法層的開發更具想象力。

▌暫停自動駕駛路測,用模擬模擬加速訓練

在自動駕駛領域,英偉達推出了基於雲的 DRIVE Constellation 駕駛模擬系統。

利用 Drive SIM 軟體,開發人員可以在雲端隨意構建高度模擬的車輛駕駛環境。而這套系統又會跟搭載了 DRIVE Pegasus 車載晶片的自動駕駛測試車相連,能夠同步處理雲端傳來的模擬資料,測試車輛本身產生的資料也會實時同步到雲端。

這裡寫圖片描述

這意味著自動駕駛車在測試階段有了更大的靈活性。通過虛擬模擬和實際路測相結合,開發者可以在自定義場景和罕見極端情況進行任意里程的測試。

人為模擬的測試環境,Drive SIM 產生的資料流在後續驗證和推理演算法時都非常有用。

英偉達預計整套 DRIVE Constellation 將於今年第三季度開始提供。

而就在釋出會進行中,英偉達的一位發言人通過郵件對外確認,將暫停在公共道路上測試自動駕駛車。這主要是受到 Uber 事故的影響,不過英偉達手動駕駛資料收集的全球車隊仍將繼續執行。

這裡寫圖片描述

這裡寫圖片描述
這裡寫圖片描述

相關文章