高通公司萬衛星出席全球AI晶片峰會:以終端側AI創新開啟智慧計算全新體驗

新闻助手發表於2024-09-06

9月6日,2024全球AI晶片峰會在北京召開。全球AI晶片峰會至今已成功舉辦六屆,現已成為國內規模最大、規格最高、影響力最強的產業峰會之一。本屆峰會以“智算紀元 共築芯路”為主題,共50多位來自AI晶片、Chiplet、RISC-V、智算叢集與AI Infra系統軟體等領域的嘉賓參與進行了報告、演講、高階對話和圓桌Panel,對AI晶片築基智算新紀元進行了全方位解構。

高通AI產品技術中國區負責人萬衛星受邀參加大會開幕式,並發表了以“終端側AI創新開啟智慧計算全新體驗”為主題的演講。他在演講中提出,高通公司持續深耕AI領域,面對當前生成式AI的飛速發展,高通的領先SoC解決方案提供了異構計算系統和具備高效能低功耗的強大NPU,能夠滿足當前豐富生成式AI用例的不同需求和算力要求,並對實現最佳效能和能效至關重要。利用高通公司推出的領先第三代驍龍8移動平臺和驍龍X Elite計算平臺,終端側生成式AI現已應用於旗艦終端和用例,終端側生成式AI的時代已經到來。

高通公司萬衛星出席全球AI晶片峰會:以終端側AI創新開啟智慧計算全新體驗

演講全文如下:

大家上午好!非常感謝主辦方的邀請,讓我能夠代表高通公司再次參加本次活動,跟大家分享AI晶片在生成式AI這個當前最火熱的賽道上,高通公司做的一些工作。今天我給大家帶來的演講主題是“終端側AI創新開啟智慧計算全新體驗”。

作為一家晶片公司,高通為AI應用的加速專門打造了高算力、低功耗的NPU。首先,我會給大家簡單介紹一下這款高算力、低功耗NPU的演進路徑。可以說,這是一個非常典型的由上層AI用例驅動底層硬體設計的演進過程。可以回想一下,在2015年左右,大家所瞭解的AI用例主要是比較簡單的語音識別、語音喚醒、圖片分類、圖片識別等。這些用例背後的底層模型,都是一些比較淺層的、規模比較小的CNN網路。那個時候,我們就給這顆NPU搭配了標量和向量的硬體加速單元,滿足對於效能的需求。

在2016年之後,計算攝影的概念在市場上得到普及,我們也將研究方向從傳統的語音識別影像分類擴充套件到了對圖片和影片的處理。隨著基於畫素級別的處理對算力的要求越來越高,支撐這些應用的模型除了更大規模、更多層數的CNN網路之外,還有其他新型的網路,比如LSTM、RNN,甚至大家現在非常熟悉的Transformer。這些網路對算力和功耗的要求非常敏感,所以我們在標量和向量加速單元的基礎之上,進一步配備了一顆張量加速器,以提供更加充沛的算力,滿足應用對畫素級、對Transformer時序網路、對算力的要求。

2023年開始,大模型,尤其是大語言模型開始真正火爆起來。其實70%以上的大語音模型都是基於Transformer。因此,我們給這顆NPU專門配備了Transformer支援。同時,我們在保持標量、向量、張量等硬體加速的基礎之上,增加更多的硬體加速單元,包括整合獨特的微切片推理技術,進一步針對對算力要求和Transformer並行化要求較高的模型推理進行加速。

未來我們會持續地加大對NPU的投入。生成式AI的未來一定是多模態的趨勢,所以今年我們也在致力於實現將一些真正的多模態大模型完整地執行在端側。在今年2月份的MWC巴塞羅那2024上,高通公司基於第三代驍龍8移動平臺展示了一個demo,就是讓超過70億引數的多模態語言模型(LMM)完整地跑在端側。

從模型規模來講,高通未來會支援更大規模的大語言模型,今年我們將有希望看到超過100億引數以上的大語言模型完整執行在端側。當然,終端側需要跑多大的模型,取決於實際的用例和這些用例對KPI的要求。

我們為什麼致力於在終端側去推理這些生成式AI模型呢?在終端側進行AI處理不僅具有成本、個性化、時延等優勢,我們認為還有最重要的一點,就是隱私性。包括手機、PC等個人裝置上的個人資訊、聊天記錄、相簿資訊、甚至包括使用者的生物特徵資訊等等,從使用者角度來講,不希望這些資料上傳到雲端做處理。透過執行大語言模型、大視覺模型等,在終端側完成這些資料的處理,我們認為這可以很好地保護普通使用者的隱私。從另外一個角度來講,終端側是離資料產生最近的地方。因為產生這些資料的裝置,包括麥克風、攝像頭,各種各樣的感測器資料。在離資料產生最近的地方去完成資料的處理,這也是非常自然而然保護使用者隱私的處理方法。

大家對高通Hexagon NPU的瞭解,我相信大部分是從搭載驍龍平臺的手機開始的,但是高通除了有驍龍移動平臺之外,還有非常豐富的產品線,覆蓋汽車、物聯網、PC、可穿戴裝置等。高通Hexagon NPU已經賦能了我們的絕大多數產品,也就意味著我們的合作伙伴、開發者朋友們可以在這些不同的產品形態上,用NPU來做演算法的加速、享受充沛的算力。除了硬體之外,我們還有統一的高通AI軟體棧(Qualcomm AI Stack),可以讓OEM、開發者在高通所支援的不同產品形態上去完成模型的部署和最佳化。

接下來更深入地介紹一下高通Hexagon NPU的硬體架構。以第三代驍龍8為例,高通Hexagon NPU中最重要的是張量、向量和標量三大加速單元,它們能夠對不同的資料型別做處理,例如張量加速器可以用來處理卷積運算、張量資料。此外還包括片上記憶體,讓這三個加速器能夠協作更高效。神經網路推理是有很多層的,每層之間都會有一些中間資料。而這些中間資料如果沒有片上記憶體做快取的話,可能都要跑在DDR上,這樣對效能、功耗都會有非常大的影響。所以我們透過在NPU上配備比較大的片上記憶體,能夠更好地釋放AI算力。

此外,高通NPU的整個硬體設計會隨著業界先進工藝的發展不斷迭代。這顆處理器的微架構,包括前端設計和後端設計也會每年進行迭代,實現最佳效能和能效。不管是AI手機還是AI PC,對功耗都有很高的要求,我們要保證裝置在日常使用中不會發燙、有更長續航。因此我們給NPU專門打造了加速器專用電源,以實現最佳能效比。我們還會透過升級微切片技術,支援網路深度融合,獲取最佳效能。除了前面這些技術升級之外,我們還會提供更高主頻,支援更大的DDR頻寬。對於生成式AI模型,尤其是在解碼階段,需要DDR的支援,所以更大的DDR頻寬就意味著大模型的解碼速度更快,能給消費者帶來更好的使用者體驗。

除了專門的高算力、低功耗NPU之外,我們還有一個單獨的模組叫高通感測器中樞,它也可以用來做AI推理加速。它是DSP加多核Micro NPU的設計,最大的特點是功耗特別低,適用於一些需要始終線上的任務,包括始終開啟的攝像頭、手勢識別、人臉檢測、始終開啟的語音喚醒等等。因為這些用例需要始終線上,所以對功耗尤其敏感。我們在硬體設計上,也會透過專門的感測器中樞加速模組來適配,對功耗極其敏感的用例進行加速。

前面介紹了非常多的硬體內容,下面會從用例方面來介紹一下我們是如何完成這些工作的。目前有非常多的AI用例,包括自然語言理解自然語言處理相關的用例,還有計算攝影中降噪、超分、HDR、背景模糊等影像處理相關的用例,現在還有影片生成、影片處理等。此外,現在AI在遊戲裡也有很多應用,像AI NPC、自動劇情、地圖繪製、二創等等。這些用例對各種KPI的要求和算力要求也不一樣,有按需型用例、持續型用例和泛在型用例,很難有單一的處理器可以滿足所有KPI的要求。

舉個簡單例子,有些任務是在CPU執行中突發的任務,這時理論上不應該喚醒全新的IP,否則時延會非常大,這個時候可以考慮用CPU架構去做加速。還有一些用例對算力要求比較高,可能需要長時間的處理,包括遊戲領域、影片/圖片處理領域以及大模型等用例。還有一種用例可能需要始終線上,這種時候用CPU、GPU或者NPU去加速都不合適,因為它對功耗極其敏感。

高通透過推出異構計算系統,來滿足這些廣泛AI用例對不同算力和KPI的要求。我們提供的異構計算系統,包括通用的硬體加速單元——CPU和GPU,用來處理實時的、突發的、對時延非常敏感的任務;我們還有NPU,它特別適用於需要持續性處理、對算力要求比較高、對功耗要求也比較高的一些任務,包括大模型、影片/圖片處理以及遊戲中持續執行的用例等;此外,還有感測器中樞用來處理始終開啟的手勢識別、語音喚醒等用例。

設計這樣的異構計算系統,我們考慮了哪些因素,是怎麼完成這個目標的呢?第一,我們希望提供極致的效能;第二,我們也希望實現比較好的持續效能表現,包括能效比;第三,我們也會從整體成本上考慮,以及考慮晶片尺寸的大小。最後我們也會考慮單位面積能夠提供的算力。我們充分考慮這些因素,打造出這樣一顆NPU和具有異構計算系統的SoC,為消費者帶來了極致的AI,尤其是生成式AI的使用者體驗。

前面介紹了我們的AI硬體技術,包括各種各樣的IP處理器、異構計算系統。接下來,我會跟大家介紹高通所賦能的AI體驗。

自去年年底第三代驍龍8和驍龍X Elite平臺釋出後,大家能夠看到市面上已經推出了非常多搭載這兩款平臺的產品。很多產品其實已經具有了端側大模型的能力,我在這裡舉幾個例子:第一個是今年年初發布的三星Galaxy S24 Ultra,它能夠支援實時翻譯的功能;第二個是OPPO Find X7 Ultra推出了AI消除功能,如果想要將圖片裡面的背景或路人移除的話,可以非常方便地用這個功能得到你想要的照片;第三是榮耀Magic6系列的智慧成片功能,可以非常方便地在相簿裡面找到與Prompt相關的圖片或影片,生成一段vlog分享給你的家人跟朋友。

今年在MWC巴塞羅那2024期間,高通展示了在Android智慧手機上執行的大語言和視覺助理大模型(LLaVA),這是一個超過70億引數的大型多模態語言模型(LMM)。我們正在攜手合作夥伴,將多模態大模型完整地帶到端側,帶到消費者面前。

第三代驍龍8和驍龍X Elite平臺已經賦能推出了豐富的具備終端側AI或生成式AI能力的旗艦終端和用例。這些用例既有娛樂類的,包括圖片生成、圖片編輯等,也有生產工具類的,包括寫作助手、文字總結、實時翻譯等,能夠給日常生活或工作帶來更高的效率。

總結一下今天的分享內容,第一高通的SoC解決方案提供了異構計算系統,包括多個IP處理器元件,其中有通用的CPU、GPU、專用的NPU、超低功耗的感測器中樞,這些IP處理器元件各自會承擔不同的任務,包括對時延敏感的、對算力敏感的、或對功耗敏感的任務。同時,它們也可以互相組合、共同完成一些更復雜的處理任務,提供端到端的服務。在2023年驍龍峰會期間,我們展示了怎麼利用高通的異構計算系統去完成端到端的虛擬化身AI助手,當時我們把整個處理管線拆解成三部分:前處理、中間的文字生成、虛擬化身渲染的後處理。其中前處理是跑在CPU上,中間的大語言模型跑在NPU上,後處理跑在GPU以及感測器中樞上面。第二,我們提供強大、算力充沛、超低功耗的專用NPU,方便大家在NPU上部署更大、更先進、更豐富的模型。第三,我們認為,終端側生成式AI時代已經到來,驍龍計算平臺和驍龍移動平臺已經賦能了非常多具備終端側生成式AI功能的終端產品。

最後,我也想在這裡做一個小小的預告,搭載最新高通Oryon CPU的下一代驍龍移動平臺,即將在今年10月21-23日舉行的驍龍峰會上釋出,大家敬請期待,謝謝!

相關文章