浪潮資訊劉軍:元宇宙是數實融合的數字載體,MetaEngine是新基礎設施

全球TMT發表於2022-04-22

北京 2022年4月21日 /美通社/ -- 近日,浪潮資訊副總裁、AI&HPC產品線總經理劉軍受邀出席新智元"元宇宙 新人類"論壇,在《元宇宙伺服器MetaEngine》主題報告中,分享了浪潮資訊對元宇宙的認知,元宇宙面臨的技術挑戰,以及如何打造元宇宙新型基礎設施的見解。

以下基於演講實錄整理。

元宇宙是數實融合的數字載體

數實融合當前已經成為一種潮流的趨勢,當數字技術日益融入經濟社會發展各領域、全過程,持續推動著物理世界數字化、數字世界智慧化,逐漸形成了一場涵蓋個人生活方式、社會生產方式和國家治理方式的全面變革。

數實相融就是數字化世界同物理世界的融合,用數字世界來引導現實世界的執行,用數字世界的智慧化實現現實世界的智慧化。

元宇宙本質上是更高度的數實融合,它是數實融合的數字載體,這裡我們以數字孿生和虛擬人為例來談談。

數字孿生是元宇宙的數字空間基礎,它可以將物理物件以數字化的方式在虛擬空間進行動態呈現,它的應用體現在多個方面,比如孿生工廠,可以動態的呈現從生產製作的全過程動態管理,實現運轉效率的大幅提升;孿生城市可以在數字世界推演天氣環境、人口土地、產業交通等要素的互動執行,繪製城市畫像,幫助城市規劃、城市治理的效率提升;孿生基建可以讓我們在修建高速公路、樓體建築時,在數字世界對工程進行模擬模擬,評估結構和承力,在工程交付後的維護階段評估工程是否可以承擔特殊情況的壓力,以及監測可能出現的事故隱患。

數字虛擬人是元宇宙的重要實體(Entity)和生態,就像是元宇宙世界中的公民,是人類身份在虛擬世界的載體。利用數字虛擬人,人們也可以提升很多工作效率,比如虛擬主播可以7*24小時的進行新聞播報,可以讓人們全天候的瞭解天下大事,虛擬醫生可以通過打通就診資料、跟蹤上萬種細微指標特徵差異,打破時間和空間,實現醫生就診病人從1對1轉變為1對多管理,虛擬模特在疫情下緩解了模特緊缺的市場情況,解決模特的供不應求。

元宇宙:認知世界  再現世界

元宇宙,可以說是一個認知世界、再現世界的過程,這個過程涉及到線上協同建模、高精度模擬、實時渲染、智慧互動等多個環節,每個環節下都有對應的關鍵技術、軟體棧和演算法工具。

首先,構建元宇宙需要進行3D建模,最近比較前沿的還有AIGC(利用GAN/多模態模型生成內容創作),這部分的工作需要多人線上協同構建。

由多人線上協同生成3D模型生成後,需要在元宇宙中模擬執行,通過結構模擬、感知模擬和控制模擬可以對模型進行驗證,如果說建模是對物理實體理解的模型化,那麼模擬就是驗證和確認這種理解的正確性和有效性的工具。

通過光線追蹤、光柵化、資料流傳輸可以讓虛擬人、數字世界更加逼真,為使用者帶來超現實的感官體驗,呈現出一個更加豐富多彩的數字世界,擁有逼近現實世界一樣的沉浸感。

利用CV/NLP/ASR/TTS等AI技術,讓數字世界的虛擬人可以能聽、會說、能互動,從而打破數字世界和物理世界的邊界,實現線上線下的交融。

元宇宙通過以上多個環節、多個工具才能達到超越感官、智慧互動的水平,像現實世界一樣豐富多彩。

元宇宙需要強大的算力基礎設施

元宇宙的出現和發展帶來的不僅有精彩,還有挑戰,元宇宙構建的各個環節都需要用到不同型別的算力支撐,也就是元宇宙的算力基礎設施。

大規模、高複雜的數字孿生空間、數字人和其他實體角色的建模需要眾多設計師協同創作完成,現實世界和數字世界的互動則需要實時、高清的3D渲染算力和低延遲的網路資料傳輸,增加了雲端協同的處理需求。

元宇宙的應用會涉及到動力、熱力、流體等多類物理模擬,這需要用到高精度的數值計算,來支撐物理模擬和科學視覺化。

讓數字世界無限接近現實世界,需要高逼真、沉浸感的3D場景構建和渲染。舉個iMax 3D電影的例子,比如《戰鬥天使阿麗塔》這部電影,其中阿麗塔高度擬真的視覺特效令人震撼,這樣以假亂真的渲染效果來源於巨大的算力消耗:主角13萬根髮絲每根都需要進行單獨渲染,僅1幀畫面渲染就要耗費100個小時,而元宇宙的渲染不僅只涉及一個虛擬人,還包括建築、城市等其他元素,這需要巨量的圖形影像計算支撐。

同時,元宇宙還會涉及到人機互動等AI應用場景,由AI驅動的數字人往往需要結合語音識別、NLP、DLRM等AI演算法從而實現互動能力,這些模型的背後需要強大的AI算力來支撐其訓練和推理需求。

可以看到,要構建高度擬真的數字世界並實現數億使用者實時互動的"元宇宙",當前面臨著場景規模大、場景複雜度高,以及多設計師和多部門協作、極高逼真數字元素製作,實時渲染、模擬和互動等諸多挑戰,並對支撐元宇宙構建和運轉的核心源動力 -- 算力提出更高的要求。這種要求不僅僅是高效能、低延遲、易擴充套件的硬體平臺,還有端到端、生態豐富、高易用的軟體棧。

浪潮元宇宙伺服器 MetaEngine

浪潮元宇宙伺服器MetaEngine正是為滿足這些苛刻要求而設計的軟硬一體化基礎設施。

作為元宇宙生態的底層算力支撐平臺,MetaEngine將承載元宇宙構建和執行所需的技術和工具,提供對AI、渲染、模擬、建模等負載的算力支援,滿足元宇宙建立所需的"協同建立、實時渲染、高精模擬、智慧互動"4大作業環節的不同型別算力需求,並通過高速、無阻塞的網路通道,按需擴充套件至大規模算力叢集。浪潮元宇宙伺服器結合業界最強軟硬體生態,協同優化加速數字孿生世界構建,為使用者打造高效的元宇宙協同開發體驗。單臺元宇宙伺服器即可支援256位元宇宙架構師協同創作,每秒AIGC 2000個數字場景,1000位VR/AR使用者共享10K超高清3D數字世界順暢體驗。

元宇宙伺服器產品方案架構

在硬體上,MetaEngine採用浪潮領先的異構加速伺服器的旗艦系統,支援最先進的CPU和GPU,具有強大的RDMA通訊和資料儲存能力,支援強大的渲染和AI計算能力。

在軟體上,可以支援對應每個作業環節的各類專業軟體工具,使用者可以根據使用習慣靈活選擇,同時系統整合了NVIDIA Omniverse Enterprise,為使用者準備了豐富的開發套件,包括專門用於結構、感知、控制模擬的Simulation SDKs,用於渲染、實時光追、AI降噪的SDKs,使用者可以通過Kit功能將這些不同的SDK進行模組化的組合,快速完成定製化App或者微服務的開發,當然這裡已經為使用者準備好了一些廣泛適用的App比如用於建模和渲染的Create,用於視覺化的View,更為重要的是,使用者通過App開發的內容可以通過資料庫和協作引擎NUCLEUS,建模工具互聯外掛CONNECT與第三方專業軟體工具無縫連線,目前CONNECT已經提供了20多種Plugins,支援與3DS MAX、UE、MAYA等軟體互聯。

MetaEngine的目標是構建一個端到端、生態豐富和高易用的協作平臺,為使用者打造一站式元宇宙開發體驗。

MetaEngine 全面支援 Omniverse

當前,MetaEngine已經全面支援英偉達的Omniverse Enterprise,將高效能 GPU 的圖形計算、AI計算與高速儲存訪問、低延遲網路和精確計時相結合,是一個資料中心級的軟硬一體解決方案,專用於為大規模數字孿生提供算力和應用支援,以實時建立和執行非常複雜的模型和逼真的模擬環境。

目前的MetaEngine元宇宙伺服器整合A40的專業GPU,CX6 Dx高速網路卡,並與企業級管理和編排軟體相結合,為使用者準備了豐富的建模、渲染、模擬套件。同時,可以將32臺MetaEngine組合成為1個叢集式的可擴充套件單元,多個可擴充套件單元可以繼續橫向擴充套件組成更大規模叢集,可提供非凡的計算效能和超高的網路頻寬,滿足工廠、城市乃至更大規模複雜模擬和實時數字孿生的需求。

在這裡,我也將為大家分享如何用浪潮MetaEnigne建立數字孿生和虛擬人。

MetaEngine 建立數字孿生

首先,以新品設計、流水線排程生產、上市為例,談一談MetaEngine如何建立執行數字孿生,來優化工作流,提高生產效率。當生產及需求達到一定規模時,生產、配送、分揀的過程就成為了一個系統工程性問題,如飲料、汽車等各行業的大規模製造公司。使用數字孿生讓虛擬世界的高精模擬代替現實世界的執行,在產品設計生產、調配之前,模擬其過程取得物理裝置最優的引數配置,提高效率贏得市場。

如何建造一個流水線上的數字孿生?MetaEngine提供元宇宙構建所需的多元算力和Omniverse元件,為構建和執行該數字孿生提供基礎能力。

首先是線上建模,按照1:1數字模型建立工廠的建築、流水線等生產交付全過程。Connect元件提供20多個第三方建模軟體的連線外掛,允許使用者使用第三方建模工具接入協同建模,Omniverse使用統一資料格式USD與第三方建模軟體(SketchUp/Revit)進行資料互動,Nucleus資料庫提供多人資料管理功能,允許多使用者同時修改視覺化、渲染3D-USD檔案。

高精模擬階段使用Simulation元件模擬新產品的材質及物理屬性,根據高逼真的虛擬物品,使用Replicator完成模擬環境的部署、搭建。Omniverse豐富的材質庫可以為設計模擬物品,提供更好的逼真度,配合使用物理模擬、動畫製作的軟體(Ansys/Houdini)可以完成整個流水線和物品的高精模擬;Replicator元件則根據模擬結果生成AI模型訓練需要的合成資料環境。

實時渲染階段,使用Renderer元件對模擬環境中的材質、光照條件實時渲染畫面,生成用於訓練AI模型的合成資料。根據合成資料在MetaEngine中訓練我們的AI視覺模型,提供物理實體及流水線流程的監控及理解。

智慧互動階段,將在MetaEngine中訓練完成的AI模型部署於物理環境與虛擬環境,虛擬環境中的AI推理指導物理實體行為,物理環境中實際反應再返回虛擬環境指導模型融合訓練。虛擬世界中如檢測到畫面中的擁堵或者空閒,可以反饋到物理流水線改變作業狀態,反之物理流水線上真實的結果可以生成真實資料繼續更新AI模型。

MetaEngine 建立虛擬數字人

我們再以高逼真的互動型虛擬數字人的製作及使用為例,依然按照"協作建模---高精模擬---實時渲染---智慧互動"的作業流程來看如何用MetaEngine建立虛擬人。

首先可以使用UE Metahuman/CHARACTER CREATOR配合Omniverse Nucleus/Connect進行3D人物形象及人臉建模。然後通過高精模擬,讓虛擬數字人更加自然、真切的與我們交流,比如對毛髮的模擬,12萬根毛髮如何在風中飛舞,這得需要強大的算力支撐,還需要藉助AI模型生成逼真的手勢和麵部表情。

再就是實時渲染,MetaEngine中的Omniverse RTX Renderer可以提供實時渲染能力,讓人物動畫及其場景實時立體地展示在我們面前,通過螢幕或XR裝置進行溝通交流。

最後是智慧互動使用,這塊需要有大量的AI模型提供支撐,把整個智慧互動的流程放大來看。使用者首先通過語音和視訊分別通過ASR 和 Vision AI模型進行推理,得到文字及視訊動作理解;將文字、動作理解融合送入的NLP語言模型如源1.0生成語言文字,再將語言文字轉化為語音或動作語言表述,通過TTS模型將文字轉化為語音,語音驅動Avatar製作的虛擬數字人,產生面部行為(audio2face應用)動作手勢(audio2gesture),並通過RTX Renderer實時渲染能力生成動畫視訊作為輸出與使用者互動。

當然,元宇宙不僅只有數字孿生和虛擬人。元宇宙要實時地對映現實世界,在元宇宙中再現工業、農業、服務業、社會、經濟、文化、城市、鄉村、地球等現實世界,使用者"身臨其境"地在其中社交、娛樂、會議、協作、旅遊、購物、教育,所有人都可以在其中互動,要達到這樣的目標,還有很長的路要去走,需要不斷探索和發現更有效率的實現元宇宙的創新技術和方案。

如同發展汽車產業需要高速公路一樣,汽車是應用,公路是基礎設施,元宇宙也需要基礎設施。MetaEngine元宇宙伺服器即是浪潮為加速元宇宙產業提出的算力基礎設施。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70004007/viewspace-2888140/,如需轉載,請註明出處,否則將追究法律責任。

相關文章