人工智慧在邊緣計算中的優勢

dicksonjyl560101發表於2020-07-27

在邊緣和極端邊緣之間,以及在無線電接入網中出現的層次結構——這一切是如何發生的將是一個有趣的現象。Synopsys的設計軟體IP產品營銷經理Ron Lowman,最近釋出了一份技術簡報,提供了一些關於移動計算和AI接近邊緣的動機,以及這些變化如何影響IP選擇和系統架構的見解。




無線電接入網路中的層次結構

到目前為止,基本原理已經很好地理解。從數十億或數萬億的邊緣裝置中傳輸zettabytes的資料到雲端是不可能的——因為在功率和頻寬方面太過昂貴。所以我們開始把計算移到更靠近邊緣的地方。這樣,本地處理更多的資料,只需要較短的跳躍。Ron引用了Rutgers/Inria在擴增實境(AR)應用中使用微軟HoloLens的一項研究。它的任務是進行二維碼識別、場景分割、定位和繪製地圖。在每種情況下,HoloLens首先連線到邊緣伺服器。在一個實驗中,人工智慧功能被轉移到雲伺服器上。在第二個實驗中,在邊緣伺服器上執行這些操作。第一種情況下的總往返延遲為80-100ms或更多。在第二種情況下,只有2-10ms。

這並不奇怪,但其中的含義很重要。雲延遲很容易引起AR使用者的暈動病。在其他應用中,這可能是一個安全問題。邊緣計算的往返延遲問題要小得多。Ron補充說,5G提供的用例可以將延遲降低到1ms以下。使基於邊緣的計算沒有競爭的理由。對於延遲不敏感的應用程式來說,使用雲是可以的(只要你不介意傳輸過程中的成本開銷和隱私問題。)對於任何實時應用程式,計算和人工智慧必須靠近應用程式。


從雲到邊緣的架構

Ron接著談到了邊緣計算的三種不同架構。他把邊緣看作是雲以外的任何東西,它利用了來自多個來源的使用模型和架構。最上面的是區域性資料中心,更多的是本地資料中心(可能在工廠或農場),以及聚合/閘道器。每個都具有自己的效能和功率配置檔案。

而區域資料中心是縮小了的雲,具有相同的功能,但的容量和功率需求較低。對於本地伺服器,他舉了一個Chick-Fil-A的例子,他們在快餐店有這樣的伺服器,來收集和處理資料,以最佳化當地廚房的運營。

不過快餐店裡的聚合器/閘道器的功能相當有限。在這個架構中,有一些更高層次的步驟;這種層次結構進一步發展,一直延伸到邊緣裝置,甚至是電池驅動裝置。據瞭解,在遙控器中,語音啟用和觸發單詞識別是在遙控器內部進行。而且閘道器可能會做一些更繁重的工作(例如命令識別)。

最後,他討論了對SoC架構的影響,以及進入伺服器SoCs和AI加速器的IP。本人同意他的觀點,即x86向量神經網路擴充套件可能不會產生太大影響。畢竟,英特爾開發Nervana(現在是Habana)是有原因的。更普遍的是,AI加速器架構正在爆炸。支援垂直應用,從極限邊緣到5G基礎設施再到雲。AI正在每一種形式的邊緣和非邊緣計算在尋找它的位置。



【編輯推薦】







來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2707065/,如需轉載,請註明出處,否則將追究法律責任。

相關文章