展望遊戲音訊設計的發展方向

遊資網發表於2021-01-15
展望遊戲音訊設計的發展方向

原文地址 https://zhuanlan.zhihu.com/p/336691565
作者:希辰Xichen NExT Studios Audio Designer

今年年中的時候,與朋友做了一期名為《2020了,遊戲還能給我們帶來什麼》的播客節目,作為一個堅定的技術派,我在其中表達了一個觀點,新體驗的產生很大程度上依賴於硬體效能的提升和開發工具的進化。如果把問題具體到遊戲音訊設計,我認為值得展開討論的話題就是,基於硬體軟體不斷髮展的前提下,遊戲音訊設計自身會發生哪些變化,從業者在開發流程中會運用哪些新的方法,玩家在遊戲過程中能獲得哪些新的體驗。

最初在列文章大綱時起的英文標題是“What will The Next Gen of Game Audio Design be like”,這是一個疑問句,對此我並沒有清晰明確的答案,所以說我只能是結合實際工作中遇到的痛點,來聊一聊遊戲音訊設計在設計思路、開發工具和終端體驗等各個環節上還有哪些可以改進的地方。譯成中文的話,就高大上一點地叫“展望遊戲音訊設計的發展方向”吧。

遊戲音訊設計的現狀

展望遊戲音訊設計的發展方向

1983年,任天堂推出了風靡全球的 Nintendo Famicom,經典配色的“紅白機”。這算是我最早認識的遊戲機了,就把它作為標尺來分析一下硬體效能:8-bit 1.79MHz 處理器,2KB 記憶體,音訊方面支援 4-bit 波表合成器和最高 7-bit 15.7458kHz 取樣檔案,最多可同時播放五個聲音。2013年,Sony 推出了 PlayStation 4 主機,而它的效能已經達到了:八個 64-bit 1.6GHz 處理器,8GB 記憶體,24-bit 48KHz 音訊檔案格式成為開發標配,八通道輸出支援多種環繞聲音響設定,可同時發聲數方面也沒有了硬性限制。

顯而易見,這三十年的硬體發展是非常迅速的,效能水平的提升幾乎是以百千倍計的。而就在我寫這篇文章的時候,Sony 和 Microsoft 也都相繼推出了新一代的遊戲主機,效能方面更是有了進一步的提高。

另外值得一提的是,移動端裝置的效能也已經到了非常高的水準,越來越多的遊戲開始嘗試主機端和移動端的多平臺支援了。雖然由於手機本身的功能定位和物理機能的限制,在實際表現上與主機相比還有些差距,但是遊戲開發的思路和目標在這兩個平臺之間並沒有明顯的差異,只是各有不同的側重而已:主機端追求的是在極限的效能要求下達到最極致的表現,而移動端則更注重在保證儘可能好的表現下去適配更廣泛的機型。

總的來說,就從記憶體和處理器這兩個指標來理解,硬體效能的提升對遊戲音訊設計意味著:更大的記憶體意味著可以使用更多高質量的聲音資源,更快的處理器意味著可以處理更多高精度的實時控制。

展望遊戲音訊設計的發展方向

因此在這樣的硬體效能水平之下,遊戲音訊設計也形成了目前一套相對成熟的開發流程,借用《遊戲音訊設計的工作流》一文中的圖示來說明:在數字音訊工作站(Digital Audio Workstation)中製作出高質量的聲音資源(Sound Asset,通常以 wav 格式檔案為主),匯入音訊中介軟體(Audio Middleware)中進行統一管理和進一步處理,並與遊戲引擎(Game Engine)深度結合來構建實現邏輯(Implementation Logic),最終以音訊資料(Audio Data,以 AK Wwise 為例即 Event)的形式與遊戲中其它元素配合來實現各種豐富的條件觸發和實時變化。

以上,就是從硬體效能和開發流程這兩個角度入手,簡單闡述了一下游戲音訊設計的現狀是怎樣的。接下來我將以三個在實際專案中遇到的例子,來聊一聊遊戲音訊設計目前尚存的一些問題,以及可行的改進方案。

程式化音訊(Procedural Audio)

在第三人稱射擊遊戲型別中,玩家能夠清楚地觀察到整個角色的各種行為,因此角色在動作表現上的細節就顯得尤為重要,特別對於寫實風格的遊戲來說更是如此。針對此類角色動畫的開發需求,目前常見的做法是基於骨骼動畫(Skeleton Animation)和關鍵幀動畫(Keyframe Animation)的。以 Unreal Engine 為例,首先根據角色表現進行細緻的行為分類,比如基礎的 Idle、Turn、Walk、Run 以及各種行為之間起停和過渡等行為,通過動作捕捉(Motion Capture)的方式採集原始動作素材並製作出大量的動畫序列(Animation Sequence),再在遊戲引擎中運用混合空間(Blend Space)和狀態機(State Machine)等功能對動畫序列進行整合,實現各種行為的觸發和轉換。在這樣的開發工序下,角色衣服和腳步等 Foley 相關的聲音一般是以動畫通知(Animation Notify)的形式整合進動畫序列中,只要動畫序列被觸發,其中相應的聲音就會被播放。

接下來就以腳步聲為例來具體分析一下到底需要準備多少聲音資源。通常有以下幾個重要因素需要考慮:

歩態:與動畫行為分類相關聯,如走、跑、跳、落地、起停等,如果更細緻一些還可以考慮各種步態在前後左右行進方向上的差異,比如向前走和向後退在腳跟腳尖的著地順序上是不同的;

體型:主要是由體型等相關因素引起的腳步聲在整體聽感上的差異,比如通常會有男女之分,女性的腳步聲可以顯得更輕盈一些;

鞋子:穿著拖鞋、皮鞋、運動鞋和登山靴等不同鞋子所發出的腳步聲有各自明顯的特點,具體種類取決於角色換裝的豐富程度;

材質:角色處在水泥、沙石、草地等不同材質上發出的腳步聲有明顯差異,具體種類一般由遊戲中定義的物理材質所決定。

素材變化:即每一個種類的腳步聲需要製作多少個隨機樣本,以保證在高頻率觸發的情況下不會出現明顯的重複感。

根據上述考量因素可以制定出整體所需的資料結構和資源規模。以我們目前一個專案為例來進行估算,一個男性角色的動畫序列數量超過了1500個,其中男性腳步聲資料使用到的聲音資原始檔數量超過了5000個。

展望遊戲音訊設計的發展方向

上述這種製作方式可以稱為是 Sample-Based Asset Production,即聲音資源的來源是海量的音訊格式檔案,最終的聲音效果很大程度上也取決於這些資源本身的質量。梳理一下這種製作方式的特點,以及我對它的一些想法:

1. 角色的前進後退和快走慢跑等行為在聲音上的細微差別真的可以體現出來嗎?優秀的擬音師確實可以表演出這些動作之間的細微差異,並以錄音的形式明確細緻地記錄下來。也正是如此,使用樣本資源是目前最主要也最有效的製作方式。

2. 聲音表現的豐富程度和細節變化重度依賴於聲音資源的數量。通過細分行為結構和堆疊海量資料的方式,確實可以把細節品質推到極致,但在資源有限的實際開發環境下,如此巨大的工作量往往是無法承受的。

3. 這種工作量是貫穿在整個工作流程中的,包括聲音資源製作、資料結構搭建、音訊資料整合等。通過規範化流程和自動化工具確實可以減少其中一部分的重複勞動,提高生產效率,比如對動畫序列進行檢測並在腳著地時刻自動新增音訊資料,但是這並沒有從根本上改變整個生產方式的核心思路。

4. 在此基礎上,可以引入遊戲中的動態引數對聲音資源做進一步的實時處理,比如使用角色的速度和斜率引數對同一資源的響度、音調和低通/高通濾波等屬性進行實時調節,來模擬在不同坡度上行進的腳步聲變化。但是這種實時調節的效果只能算是一種低精度的模擬,因為對這些音訊屬性的調整並不能改變樣本自身的波形特徵,換句話說就是不能體現出動作本身之間的真實差別。

歸根結底,這種 Sample-Based 的製作方式其實是試圖用足夠多的離散資料去匹配高精度的連續變化,在我來看這其中是有很大的改進空間的。遊戲開發的技術性特點是所有邏輯都是構建在程式演算法之上的,所有表現其實是演算過程的結果,自然地也就有了程式化生成(Procedural Generation)這個概念,簡單來說就是通過演算法來生成資料。這種思路在遊戲開發領域也早有應用,比如開發世界大規模地形和植被的生成、Roguelike 類遊戲隨機地圖的生成等,近幾年比較出名的遊戲作品《No Man's Sky》中甚至生成了超過18000000000000000000(Quintillion,18個0)個獨特的星球可供玩家探索。

說回到我們的例子上,即使是在基於大量動畫序列的角色動作製作流程中,其實多少也會涉及到程式化動畫(Procedural Animation)的相關運用,比如角色在死亡或失去控制之後進入的 Ragdoll 狀態,使用 Inverse kinematics Rig 讓角色在與其它物體接觸時的動作表現更加自然,採用 Motion Matching 方式來更方便快捷地實現角色 Locomotion 行為等。而現在甚至已經可以運用人工智慧、神經網路等相關技術,在不依賴於動畫序列等資料的前提下,讓角色產生非常自然且自適應各種狀態的動畫表現。

試想今後在這樣的工作流程中,現有形式的音訊資料都沒有類似於動畫序列這樣的載體去依託,我們又該如何去設計和整合角色的動作聲音呢?因此相對應地在音訊設計領域,自然也會有程式化音訊(Procedural Audio)的設計思路。

程式化音訊這個概念雖然不是一個新事物,但是目前在業界似乎還沒有大規模的討論與應用,甚至都還沒有相應的 Wiki 頁面。在此我暫且不對程式化音訊的學術定義展開討論,僅結合上述角色腳步聲設計的案例,來梳理一下我對程式化音訊的理解,以及實際運用的可行性思路:

1. 首先,程式化音訊的思考重點是物體為什麼發聲和怎麼樣發聲,而不是簡單地只考慮具體的聲音表現。如果從相對寬泛的尺度下去考量,現在的遊戲音訊設計其實已經包含了許多程式化音訊的設計思路。在《遊戲音訊設計的一種思路:解構與建模》一文中我也表達過類似的想法。

2. 有一點需要明確的是,程式化音訊並不是說要完全拋棄樣本素材的使用,這一點與物理建模聲音合成(Physical Modelling Synthesis)是有本質區別的。基於物理模擬的聲音合成是指對物體的物理屬性進行解構並通過演算法建模的方式來生成聲音,學界在這方面已經有了多年的研究和成果,之後是有機會作為程式化音訊設計思路中的一項技術而被實際運用在遊戲音訊設計工作流中的。但就目前的實際開發而言,使用樣本素材的方式在聲音質量、運算速度和效能消耗等各個方面都還是有絕對優勢的。

3. 引入程式化音訊設計思路的主要目的是,使用有限的聲音資源來實現儘可能豐富且動態的聲音表現。在目前的遊戲音訊設計工作流中許多方法其實是與此契合的,比如使用來自引擎中的動態引數來實時調製聲音的屬性,這仍然會是程式化音訊中的一個重要手段。

4. 對於角色腳步聲設計中的步態因素而言,我認為目前運用程式化音訊最主要的障礙是還沒有一個有效的模型從更為解構的角度去描述腳步的結構與狀態。比如平臺解謎遊戲《Inside》裡的角色腳步聲設計就做了一次有趣且成功的嘗試,將腳步聲拆分成腳尖(Toe)和腳跟(Heel)兩部分,然後通過角色速度等引數來實時控制這兩部分的播放間隔、響度和音調等屬性,來無縫銜接地表現角色在不同速度下行進的腳步聲。儘管這種解構模型的精度還是相對簡單,但是對像《Inside》這類橫版移動和藝術化美術風格的遊戲型別來說確實已經足夠而且是有效的。而對於寫實風格的第三人稱射擊遊戲來說,我們在腳步聲解構模型上還需要有更進一步的思考與探索。

5. 材質(Material)是遊戲引擎中一個基礎且重要的系統,目前在音訊設計方面對其的應用還是比較簡單和直接的,即一種材質對映一組包含若干隨機變化的樣本素材的聲音,這也是腳步聲的聲音資源數量和結構複雜程度會隨著材質種類的增加而成倍擴大的主要原因。如果引入程式化音訊的設計思路,我們可以從材質的硬度、厚度和粗糙度等物理屬性去分析,並結合物理建模聲音合成的技術,這樣就可以使用盡可能少的聲音資源通過引數控制和排列組合的方式去實現儘可能多的材質聲音表現。

6. 最後,從務實的角度來討論一下為什麼程式化音訊還沒有被大規模地運用在實際開發中。我認為可能的原因有二:一是,目前絕大多數遊戲型別的開發規模和資源數量還是可控的,使用樣本素材是最為直接有效且相對廉價的製作方式。受限於人員技術背景和人力成本等因素,遊戲音訊團隊投入時間精力去從事程式化音訊的基礎研究或許不是一件划算的事情;二是,儘管學界可能在相關領域已經有了研究進展和成果,但由於缺少實際需求的驅動,因此還沒有形成一個相對完整的解決方案。

聲學環境建模(Acoustic Environment Modeling)

在強競技的寫實風格射擊遊戲中,玩家對聲音的關注點不僅僅是槍聲聽起來爽不爽,更會對槍械射擊和人物動作等聲音的空間感和方位感提出更高的要求,因為這些聲音在符合物理常識和聽覺習慣的情況下能夠給玩家提供更多的戰局資訊。所以在遊戲音訊設計中,我們需要解決的一大問題就是如何在遊戲世界中重建一個擬真的聲學環境,讓聲音在其中傳播時聽起來真實可信。

聲學環境建模本身就是學術研究中的一大方向,在建築聲學等領域已經有了非常多的研究成果和實際應用,我在這方面沒有任何的研究經驗,因此僅從遊戲音訊設計的角度來討論一下目前常見的解決方案。

展望遊戲音訊設計的發展方向

首先從響度的角度來考慮,一個聲音在從激發到消失的過程中可以被分為三個部分,即直達聲(Direct Sound)、反射聲(Early Reflect)和混響聲(Late Reverb),這三部分聲音會以動態地生成、變化和混合,來形成聲源在空間中的整體效果。同時考慮聲音在傳播過程中的兩個行為特徵,衍射(Diffraction)與透射(Transmission),這兩者與空間的幾何體(Geometry)資訊是強相關的,需要配合聽者(Listener)與聲源(Emitter)的空間資訊和相對關係共同參與運算。簡單理解,以上五點就是在遊戲中重建聲音傳播(Sound Propagation)現象時可以被設計和控制的要素。

展望遊戲音訊設計的發展方向

以音訊中介軟體 Audiokinetic Wwise 的 Spatial Audio 解決方案為例,遊戲音訊設計師可以從以下幾個方面入手:

1. 在 Wwise 中對各類聲音定義不同的 Attenuation 設定,其中包含了聲音可傳播的最大距離以及基於距離變化的響度、低頻和高頻的衰減曲線,主要定義的是直達聲這一部分的傳播屬性。另外還會包含聲音在不同距離上響應混響效果的曲線,後續被用於混響聲部分的計算。

2. 在 Wwise 中建立 Auxiliary Buss,並在各條 Buss 上配置不同效果的 Reverb 外掛來模擬不同空間的混響效果。這些 Buss 之後會被對映到引擎中所定義的空間中以確定各自不同的混響屬性,並實時計算生成混響聲的部分。

3. 在 Wwise 中建立 Reflect Buss,通過 Reflect 外掛來完成反射聲部分的實時計算。反射聲是由引擎中所定義的建築或物體表面反射引起的,與空間幾何緊密相關,因此 Reflect 外掛中定義了反射聲的最大響應距離以及基於距離變化的響度、低頻和高頻的衰減曲線等屬性。

4. 在 Wwise 中建立各種 Acoustic Texture,用來模擬不同材質對反射聲的吸收程度。這些 Texture 之後會被對映到引擎中所定義的建築或物體表面上,配合 Reflect 外掛共同實現更精細的反射聲效果。

5. 在 Wwise 中設定全域性的 Obstruction 和 Occlusion 曲線,分別對應衍射和透射的效果。直達聲在傳播過程中,遇到表面邊緣發生轉折和直接透過牆體時會分別引起不同程度的 Obstruction 和 Occlusion 計算,得出的數值會在 Attenuation 設定的基礎上進一步影響直達聲的響度以及低頻和高頻的衰減。

6. 在引擎中根據地形和建築物模型來定義各個 Room,並在其中配置相應的 Reverb Buss、Acoustic Texture 和牆體 Occlusion 等空間屬性,以及在門窗等空間開口處定義 Portal 當作聲音傳播的通道。定義空間主要有兩種方式:一是使用 Spatial Audio Volume 元件手動繪製立方體之類的簡單幾何圖形,二是使用 Geometry 元件直接呼叫建築物模型的 Static Mesh 資訊。

7. 在完成以上這些設計與整合工作之後,引擎就可以根據聽者、聲源與幾何體的空間資訊和相對關係進行實時運算來模擬各類聲音在不同空間中的聽感效果。

以下是我對上述這種解決方案的理解:

1. 從對聲學環境建模的角度來看,這種方案是建立在 Room & Portal 基礎上的,將遊戲空間劃分為一個個相對獨立的 Room,並通過 Portal 將其連線起來。雖然建模精度有限,但這種簡化了的模型在實際表現上確實是有效的,在儘可能降低效能消耗的同時也能夠體現出聲音傳播的特點。

2. 儘管這種建模與還原是有效的,但是與真實的聲音表現相比還是有很大差距的,我認為主要瓶頸還是在於效能有限。比如,混響聲其實是由無數漫反射混合形成的效果,但在實際開發中我們還無法從這個更本質的角度去進行模擬,大量的射線檢測(Raycasting)極耗效能,只能通過混響外掛來實現,而外掛本身對混響的建模也是簡化的,即使是使用效果更好的卷積混響(Convolution Reverb),目前也存在可控動態引數有限的問題。

3. 再比如,目前我們通常只能用簡單幾何體去近似擬合,也不會對所有材質表面都定義反射屬性,更不會對所有聲音都進行反射計算。而真實環境中聲音的細節表現,恰恰就體現在這些無序的、不規則的聲音相互影響之中的。

4. 也正是因為效能有限,這種方案需要人工定義 Room 和 Portal,且對於複雜模型還需要考慮組合拼接,從工作量的角度來看也是一個不小的人力成本。

5. 當然,這種由於效能有限而引發的還原精度降低和工作成本增加的現象,其實在遊戲開發中是普遍存在的,比如對模型設定 LOD(Level of Detail)來調整不同視距下的模型精度等。

那除了等待硬體效能提升之外,我們能不能換個思路來解決遊戲中聲學環境建模的問題呢?

Microsoft 在2011年提出了一種叫做 Wave Acoustics 的模擬方法,用一種類似於光照烘焙(Static Light Baking)的思路,將複雜環境中聲波傳播的真實效果進行演算並記錄下來,並從中提取重要引數用於設計控制和實時運算。這種方法以不依賴於大量射線檢測的方式提高了聲學環境的模擬精度,同時也省去了音訊設計師手動定義 Room 和 Portal 的大量工作。當然,這種方案目前也存在一些需要改進的地方,比如如何進一步減少烘焙檔案的儲存大小和如何實現空間資訊動態變化等問題。

目前此方案正式命名為 Project Acoustics,並已在《Gear of War》、《Sea of Thieves》和《Borderlands 3》等專案中經過驗證,感興趣的朋友可以前往官網查閱詳情,或者直接試用 Unreal 或 Unity 整合方案。

限於本人研究深度有限,暫且不論 Room & Portal 和 Wave Acoustics 這兩種方案孰優孰劣,至少作為一線工作者是非常樂於見到新技術的出現的,不斷從實現效果和工作效率上帶給我們新的可能。

空間聲與雙耳聲音訊(Ambisonics & Binaural Audio)

展望遊戲音訊設計的發展方向

目前主機平臺上的大多數遊戲都會按 5.1 環繞立體聲以上的重放標準來進行最終的混音,而絕大多數玩家是沒有這樣規格的重放條件的,主要還是以雙聲道立體聲音響、耳機甚至只是電視機揚聲器居多。因此,無論我們在音訊實現上採用了多麼先進的技術,或是在混音階段使用了多麼高階的環境與裝置,最終都要考慮一個非常重要且實際的問題,那就是如何保證玩家在規格各異的終端裝置上也能聽到高質量的聲音重放效果。那麼耳機作為一個大多數玩家都能獲取的裝置,因而也就成了我們的研究重點,值得去研究如何在耳機上實現一個更加立體且逼真的聽覺效果。

展望遊戲音訊設計的發展方向

針對這個問題,我們首先要理解目前遊戲中是如何處理聲音定位(Sound Positioning)的。在遊戲的三維世界中,聽者與各個聲源都有各自的座標,任意兩者之間的相對關係經過向量計算便可得出,基於聽者而言的聲音定位資訊是簡單且明確的。這種處理方式與遊戲開發中基於物件的程式設計邏輯類似,也可以理解為是 Object-Based Audio。遊戲本身的動態和互動特點,要求聲音必須包含完整的定位資訊用於實時計算,因此在遊戲開發階段,我們更多考慮的是聽者與聲源之間相對關係的變化,而非特定聲道上具體的重放內容,這一點與音樂和電影等基於聲道(Channel-Based)的聲音製作思路是完全不同的,我認為也是其優越性的體現。正是因為 Object-Based Audio 具有這樣的特點,Dolby Atmos 等環繞聲技術也引入了類似的設計思路,用於實現更豐富立體的電影聲音重放效果。

儘管 Object-Based 的方式保留了聲源完整的空間資訊,我們最終還是要把聲音對映到只有兩個聲道的耳機上進行重放,目前最常見的方式是 VBAP(Vector-Based Amplitude Panning)。VBAP 的優點在於無需對聲場做額外改動就能對映到各種聲道配置的重放系統上,然而它的缺點也是明顯的,玩家聽到的並不是真正的全方位的聲場,聲源相對於聽者在前後方向和高度上的差異被壓縮了,直觀地來說就是原本的三維空間被壓扁成了一個二維平面。

所以對於上述耳機重放的問題,我們可以結合兩種技術來有針對性地解決,先是使用空間聲(Ambisonics)技術將聲源的空間資訊對映到一個立體的球形聲場中,然後再使用雙耳聲音訊(Binaural Audio)中的頭部相關傳遞函式(HRTF,Head-Releated Transfer Function)對球形聲場中的聲源進行濾波處理,最終實現空間感更加準確且適合耳機重放的聲音定位效果。

對此我的理解是:

1. Ambisonics 早在70年代就已發明,只是因為此前 Channel-Based 的製作方式佔據主流,導致其沒有太大的用武之地。直到前幾年 Virtual Reality 的興起,Ambisonics 對整體聲場捕捉和還原的特點才重新被人重視,Ambisonics 話筒配合全景攝像機的拍攝方式很好地順應了 VR 影片的製作需求。

2. 在遊戲音訊設計中,Ambisonics 的應用遠不止是使用話筒採集 Ambisonics 聲音素材,更重要的是 Ambisonics 可以作為一種中介空間表示法(Intermediate Spatial Representation)來模擬聲場,為後續使用 HRTF 進行更精準的雙耳化定位提供了可能。目前音訊中介軟體 Audiokinetic Wwise 也已將 Ambisonics 整合進自身已有的 Spatial Audio 工作管線中。

3. Binaural Audio 也不是一個新技術,Binaural Recording 錄音方式早已出現且被廣泛使用,現在流行的所謂 ASMR 視訊其實就是使用 Binaural 話筒錄製來營造一種更親近的聽覺體驗而已。其原理非常簡單易懂,就是在靠近人耳鼓膜附近佈置話筒或者使用人工頭模型話筒來錄製聲音,這樣就能把聲音受耳道、耳廓、頭型和軀體等部位的影響更精確地捕捉下來,而人之所以能辨別聲音方位,與受到這些部位的濾波影響而產生細微變化有很大的關係。

4. 在遊戲音訊設計中,Binaural Audio 的應用也遠不止是使用 Binaural 話筒採集聲音素材,最主要的是我們能從以這種方式將人體部位對聲音的濾波影響提取成 HTRF,這樣就可以對遊戲中實時變化的聲音進行雙耳化處理。

5. 目前 HRTF 資料採集需要在高標準的聲學環境下使用話筒陣列來進行,費時費力成本高,因此常規的 HRTF 資料只能對有限樣本進行採集再處理成籠統的分類預設。然而由於個體器官構造的差異性,這些資料無法精確地匹配到每一個個體。所以,如何更方便快捷地採集個人 HRTF 資料可能會是之後值得探索的一項技術。

總之,耳機是目前普通消費者體驗高質量聲音表現最易獲取的裝置,針對耳機的聲音重放體驗肯定會受到越來越多的重視,因此在開發階段專門針對耳機重放做特殊的聲音定位和混音處理也是尤為必要的。

再創造,而非純模擬(Recreation,Not Simulation)

上述三個例子分別從資源生成、聲學建模和終端體驗三個角度展開,討論了遊戲音訊設計的發展方向和進展,也從都側面反映了對技術進步的一致要求:設計工具更可控(Controllable),運算效能更快速(Fast),呈現效果更精確(Accurate)。這可能多少回答了開頭的問題,What will the next gen of Game Audio Design be like,至少算是一個相對明確的技術要求。

上文通篇都是對技術本身的討論,其重要性不言而喻,但是純粹追求技術手段的發展更多屬於科學研究的範疇,而遊戲音訊設計是技術與藝術的結合,技術手段要服務於藝術表達,遊戲作品的好壞最終取決於玩家的體驗和評價,而非技術手段的先進與否。

科學研究的技術成果提供了模擬(Simulation)現實的工具,而遊戲開發者則應該思考如何將這些工具運用到虛擬世界的再創造(Recreation)中去。當技術發展到能讓我們越來越接近真實的時候,我們又該如何去定義虛擬世界中的“真實性”呢?

關聯閱讀:

(1)《2020了,遊戲還能給我們帶來什麼》播客節目:
https://m.ximalaya.com/yule/40134221/319415380

(2)遊戲音訊設計的工作流
https://soundoer.com/2020/09/08/the-workflow-of-game-audio-design/

(3)遊戲音訊設計的一種思路:解構與建模
https://soundoer.com/2020/07/18/a-thought-of-designing-sound-in-game-deconstruction-and-modeling/

希辰Xichen

相關文章