一步一步教你實現iOS音訊頻譜動畫(二)

potato04發表於2019-03-07

一步一步教你實現iOS音訊頻譜動畫(二)
如果你想先看看最終效果再決定看不看文章 -> bilibili
示例程式碼下載

第一篇:一步一步教你實現iOS音訊頻譜動畫(一)

本文是系列文章中的第二篇,上篇講述了音訊播放和頻譜資料計算,本篇講述資料處理和動畫的繪製。

前言

在上篇文章中我們已經拿到了頻譜資料,也知道了陣列每個元素表示的是振幅,那這些陣列元素之間有什麼關係呢?根據FFT的原理, N個音訊訊號樣本參與計算將產生N/2個資料(2048/2=1024),其頻率解析度△f=Fs/N = 44100/2048≈21.5hz,而相鄰資料的頻率間隔是一樣的,因此這1024個資料分別代表頻率在0hz、21.5hz、43.0hz....22050hz下的振幅。

那是不是可以直接將這1024個資料繪製成動畫?當然可以,如果你剛好要顯示1024個動畫物件!但是如果你想可以靈活地調整這個數量,那麼需要進行頻帶劃分。

嚴格來說,結果有1025個,因為在上篇文章的FFT計算中通過fftInOut.imagp[0] = 0,直接把第1025個值捨棄掉了。這第1025個值代表的是奈奎斯特頻率值的實部。至於為什麼儲存在第一個FFT結果的虛部中,請翻看第一篇

頻帶劃分

頻帶劃分更重要的原因其實是這樣的:根據心理聲學,人耳能容易的分辨出100hz和200hz的音調不同,但是很難分辨出8100hz和8200hz的音調不同,儘管它們各自都是相差100hz,可以說頻率和音調之間的變化並不是呈線性關係,而是某種對數的關係。因此在實現動畫時將資料從等頻率間隔劃分成對數增長的間隔更合乎人類的聽感。

一步一步教你實現iOS音訊頻譜動畫(二)
圖1 頻帶劃分方式

開啟專案AudioSpectrum02-starter,您會發現跟之前的AudioSpectrum01專案有些許不同,它將FFT相關的計算移到了新增的類RealtimeAnalyzer中,使得AudioSpectrumPlayerRealtimeAnalyzer兩個類的職責更為明確。

如果你只是想瀏覽實現程式碼,開啟專案AudioSpectrum02-final即可,已經完成本篇文章的所有程式碼

檢視RealtimeAnalyzer類的程式碼,其中已經定義了 frequencyBands、startFrequency、endFrequency 三個屬性,它們將決定頻帶的數量和起止頻率範圍。

public var frequencyBands: Int = 80 //頻帶數量
public var startFrequency: Float = 100 //起始頻率    
public var endFrequency: Float = 18000 //截止頻率
複製程式碼

現在可以根據這幾個屬性確定新的頻帶:

private lazy var bands: [(lowerFrequency: Float, upperFrequency: Float)] = {
    var bands = [(lowerFrequency: Float, upperFrequency: Float)]()
    //1:根據起止頻譜、頻帶數量確定增長的倍數:2^n
    let n = log2(endFrequency/startFrequency) / Float(frequencyBands)
    var nextBand: (lowerFrequency: Float, upperFrequency: Float) = (startFrequency, 0)
    for i in 1...frequencyBands {
        //2:頻帶的上頻點是下頻點的2^n倍
        let highFrequency = nextBand.lowerFrequency * powf(2, n)
        nextBand.upperFrequency = i == frequencyBands ? endFrequency : highFrequency
        bands.append(nextBand)
        nextBand.lowerFrequency = highFrequency
    }
    return bands
}()
複製程式碼

接著建立函式findMaxAmplitude用來計算新頻帶的值,採用的方法是找出落在該頻帶範圍內的原始振幅資料的最大值:

private func findMaxAmplitude(for band:(lowerFrequency: Float, upperFrequency: Float), in amplitudes: [Float], with bandWidth: Float) -> Float {
    let startIndex = Int(round(band.lowerFrequency / bandWidth))
    let endIndex = min(Int(round(band.upperFrequency / bandWidth)), amplitudes.count - 1)
    return amplitudes[startIndex...endIndex].max()!
}
複製程式碼

這樣就可以通過新的analyse函式接收音訊原始資料並向外提供加工好的頻譜資料:

func analyse(with buffer: AVAudioPCMBuffer) -> [[Float]] {
    let channelsAmplitudes = fft(buffer)
    var spectra = [[Float]]()
    for amplitudes in channelsAmplitudes {
        let spectrum = bands.map {
           findMaxAmplitude(for: $0, in: amplitudes, with: Float(buffer.format.sampleRate)  / Float(self.fftSize))
        }
        spectra.append(spectrum)
    }
    return spectra
}
複製程式碼

動畫繪製

看上去資料都處理好了,讓我們捋一捋袖子開始繪製動畫了!開啟自定義檢視SpectrumView檔案,首先建立兩個CAGradientLayer

var leftGradientLayer = CAGradientLayer()
var rightGradientLayer = CAGradientLayer()
複製程式碼

新建函式setupView(),分別設定它們的colorslocations屬性,這兩個屬性分別決定漸變層的顏色和位置,再將它們新增到檢視的layer層中,它們將承載左右兩個聲道的動畫。

private func setupView() {
    rightGradientLayer.colors = [UIColor.init(red: 52/255, green: 232/255, blue: 158/255, alpha: 1.0).cgColor,
                                 UIColor.init(red: 15/255, green: 52/255, blue: 67/255, alpha: 1.0).cgColor]
    rightGradientLayer.locations = [0.6, 1.0]
    self.layer.addSublayer(rightGradientLayer)
    
    leftGradientLayer.colors = [UIColor.init(red: 194/255, green: 21/255, blue: 0/255, alpha: 1.0).cgColor,
                                UIColor.init(red: 255/255, green: 197/255, blue: 0/255, alpha: 1.0).cgColor]
    leftGradientLayer.locations = [0.6, 1.0]
    self.layer.addSublayer(leftGradientLayer)
}
複製程式碼

接著在View的初始化函式init(frame: CGRect)init?(coder aDecoder: NSCoder)中呼叫它,以便在程式碼或者Storyboard中建立SpectrumView時都可以正確地進行初始化。

override init(frame: CGRect) {
    super.init(frame: frame)
    setupView()
}
required init?(coder aDecoder: NSCoder) {
    super.init(coder: aDecoder)
    setupView()
}
複製程式碼

關鍵的來了,定義一個spectra屬性對外接收頻譜資料,並通過屬性觀察didSet建立兩個聲道的柱狀圖的UIBezierPath,經過CAShapeLayer包裝後應用到各自CAGradientLayermask屬性中,就得到了漸變的柱狀圖效果。

var spectra:[[Float]]? {
    didSet {
        if let spectra = spectra {
            // left channel
            let leftPath = UIBezierPath()
            for (i, amplitude) in spectra[0].enumerated() {
                let x = CGFloat(i) * (barWidth + space) + space
                let y = translateAmplitudeToYPosition(amplitude: amplitude)
                let bar = UIBezierPath(rect: CGRect(x: x, y: y, width: barWidth, height: bounds.height - bottomSpace - y))
                leftPath.append(bar)
            }
            let leftMaskLayer = CAShapeLayer()
            leftMaskLayer.path = leftPath.cgPath
            leftGradientLayer.frame = CGRect(x: 0, y: topSpace, width: bounds.width, height: bounds.height - topSpace - bottomSpace)
            leftGradientLayer.mask = leftMaskLayer
    
            // right channel
            if spectra.count >= 2 {
                let rightPath = UIBezierPath()
                for (i, amplitude) in spectra[1].enumerated() {
                    let x = CGFloat(spectra[1].count - 1 - i) * (barWidth + space) + space
                    let y = translateAmplitudeToYPosition(amplitude: amplitude)
                    let bar = UIBezierPath(rect: CGRect(x: x, y: y, width: barWidth, height: bounds.height - bottomSpace - y))
                    rightPath.append(bar)
                }
                let rightMaskLayer = CAShapeLayer()
                rightMaskLayer.path = rightPath.cgPath
                rightGradientLayer.frame = CGRect(x: 0, y: topSpace, width: bounds.width, height: bounds.height - topSpace - bottomSpace)
                rightGradientLayer.mask = rightMaskLayer
            }
        }
    }
}
複製程式碼

其中translateAmplitudeToYPosition函式的作用是將振幅轉換成檢視座標系中的Y值:

private func translateAmplitudeToYPosition(amplitude: Float) -> CGFloat {
    let barHeight: CGFloat = CGFloat(amplitude) * (bounds.height - bottomSpace - topSpace)
    return bounds.height - bottomSpace - barHeight
}
複製程式碼

回到ViewController,在SpectrumPlayerDelegate的方法中直接將接收到的資料交給spectrumView:

// MARK: SpectrumPlayerDelegate
extension ViewController: AudioSpectrumPlayerDelegate {
    func player(_ player: AudioSpectrumPlayer, didGenerateSpectrum spectra: [[Float]]) {
        DispatchQueue.main.async {
            //1: 將資料交給spectrumView
            self.spectrumView.spectra = spectra
        }
    }
}
複製程式碼

敲了這麼多程式碼,終於可以執行一下看看效果了!額...看上去效果好像不太妙啊。請放心,喝杯咖啡放鬆一下,待會一個一個來解決。

一步一步教你實現iOS音訊頻譜動畫(二)
圖2 初始動畫效果

調整優化

效果不好主要體現在這三點:1)動畫與音樂節奏匹配度不高;2)畫面鋸齒過多; 3)動畫閃動明顯。 首先來解決第一個問題:

節奏匹配

匹配度不高的一部分原因是目前的動畫幅度太小了,特別是中高頻部分。我們先放大個5倍看看效果,修改analyse函式:

func analyse(with buffer: AVAudioPCMBuffer) -> [[Float]] {
    let channelsAmplitudes = fft(buffer)
    var spectra = [[Float]]()
    for amplitudes in channelsAmplitudes {
        let spectrum = bands.map {
            //1: 直接在此函式呼叫後乘以5
            findMaxAmplitude(for: $0, in: amplitudes, with: Float(buffer.format.sampleRate)  / Float(self.fftSize)) * 5
        }
        spectra.append(spectrum)
    }
    return spectra
}
複製程式碼

一步一步教你實現iOS音訊頻譜動畫(二)
圖3 幅度放大5倍之後,低頻部分都超出畫面了

低頻部分的能量相比中高頻大許多,但實際上低音聽上去並沒有那麼明顯,這是為什麼呢?這裡涉及到響度的概念:

響度(loudness又稱音響或音量),是與聲強相對應的聲音大小的知覺量。聲強是客觀的物理量,響度是主觀的心理量。響度不僅跟聲強有關,還跟頻率有關。不同頻率的純音,在和1000Hz某個聲壓級純音等響時,其聲壓級也不相同。這樣的不同聲壓級,作為頻率函式所形成的曲線,稱為等響度曲線。改變這個1000Hz純音的聲壓級,可以得到一組等響度曲線。最下方的0方曲線表示人類能聽到的最小的聲音響度,即聽閾;最上方是人類能承受的最大的聲音響度,即痛閾。

一步一步教你實現iOS音訊頻譜動畫(二)
圖4 橫座標為頻率,縱座標為聲壓級,波動的一條條曲線就是等響度曲線(equal-loudness contours),這些曲線代表著聲音的頻率和聲壓級在相同響度級中的關聯。

原來人耳對不同頻率的聲音敏感度不同,兩個聲音即使聲壓級相同,如果頻率不同那感受到的響度也不同。基於這個原因,需要採用某種頻率計權來模擬使得像人耳聽上去的那樣。常用的計權方式有A、B、C、D等,A計權最為常用,對低頻部分相比其他計權有著最多的衰減,這裡也將採用A計權。

一步一步教你實現iOS音訊頻譜動畫(二)
圖5 藍色曲線就是A計權,是根據40 phon的等響曲線模擬出來的反曲線

RealtimeAnalyzer類中新建函式createFrequencyWeights(),它將返回A計權的係數陣列:

private func createFrequencyWeights() -> [Float] {
    let Δf = 44100.0 / Float(fftSize)
    let bins = fftSize / 2 //返回陣列的大小
    var f = (0..<bins).map { Float($0) * Δf}
    f = f.map { $0 * $0 }
    
    let c1 = powf(12194.217, 2.0)
    let c2 = powf(20.598997, 2.0)
    let c3 = powf(107.65265, 2.0)
    let c4 = powf(737.86223, 2.0)
    
    let num = f.map { c1 * $0 * $0 }
    let den = f.map { ($0 + c2) * sqrtf(($0 + c3) * ($0 + c4)) * ($0 + c1) }
    let weights = num.enumerated().map { (index, ele) in
        return 1.2589 * ele / den[index]
    }
    return weights
}
複製程式碼

更新analyse函式中的程式碼:

func analyse(with buffer: AVAudioPCMBuffer) -> [[Float]] {
    let channelsAmplitudes = fft(buffer)
    var spectra = [[Float]]()
    //1: 建立權重陣列
    let aWeights = createFrequencyWeights()
    for amplitudes in channelsAmplitudes {
        //2:原始頻譜資料依次與權重相乘
        let weightedAmplitudes = amplitudes.enumerated().map {(index, element) in
            return element * aWeights[index]
        }
        let spectrum = bands.map { 
            //3: findMaxAmplitude函式將從新的`weightedAmplitudes`中查詢最大值
            findMaxAmplitude(for: $0, in: weightedAmplitudes, with: Float(buffer.format.sampleRate)  / Float(self.fftSize)) * 5
        }
        spectra.append(spectrum)
    }
    return spectra
}
複製程式碼

再次執行專案看看效果,好多了是嗎?

一步一步教你實現iOS音訊頻譜動畫(二)
圖6 A計權之後的動畫表現

鋸齒消除

接著是鋸齒過多的問題,手段是將相鄰較長的拉短較短的拉長,常見的辦法是使用加權平均。建立函式highlightWaveform()

private func highlightWaveform(spectrum: [Float]) -> [Float] {
    //1: 定義權重陣列,陣列中間的5表示自己的權重
    //   可以隨意修改,個數需要奇數
    let weights: [Float] = [1, 2, 3, 5, 3, 2, 1]
    let totalWeights = Float(weights.reduce(0, +))
    let startIndex = weights.count / 2
    //2: 開頭幾個不參與計算
    var averagedSpectrum = Array(spectrum[0..<startIndex])
    for i in startIndex..<spectrum.count - startIndex {
        //3: zip作用: zip([a,b,c], [x,y,z]) -> [(a,x), (b,y), (c,z)]
        let zipped = zip(Array(spectrum[i - startIndex...i + startIndex]), weights)
        let averaged = zipped.map { $0.0 * $0.1 }.reduce(0, +) / totalWeights
        averagedSpectrum.append(averaged)
    }
    //4:末尾幾個不參與計算
    averagedSpectrum.append(contentsOf: Array(spectrum.suffix(startIndex)))
    return averagedSpectrum
}
複製程式碼

analyse函式需要再次更新:

func analyse(with buffer: AVAudioPCMBuffer) -> [[Float]] {
    let channelsAmplitudes = fft(buffer)
    var spectra = [[Float]]()
    for amplitudes in channelsAmplitudes {
        let weightedAmplitudes = amplitudes.enumerated().map {(index, element) in
            return element * weights[index]
        }
        let spectrum = bands.map {
            findMaxAmplitude(for: $0, in: weightedAmplitudes, with: Float(buffer.format.sampleRate)  / Float(self.fftSize)) * 5
        }
        //1: 新增到陣列之前呼叫highlightWaveform
        spectra.append(highlightWaveform(spectrum: spectrum))
    }
    return spectra
}
複製程式碼

一步一步教你實現iOS音訊頻譜動畫(二)
圖7 鋸齒少了,波形變得明顯

閃動優化

動畫閃動給人的感覺就好像丟幀一樣。造成這個問題的原因,是因為頻帶的值前後兩幀變化太大,我們可以將上一幀的值快取起來,然後跟當前幀的值進行...沒錯,又是加權平均! (⊙﹏⊙)b 繼續開始編寫程式碼,首先需要定義兩個屬性:

//快取上一幀的值
private var spectrumBuffer: [[Float]]?
//緩動係數,數值越大動畫越"緩"
public var spectrumSmooth: Float = 0.5 {
    didSet {
        spectrumSmooth = max(0.0, spectrumSmooth)
        spectrumSmooth = min(1.0, spectrumSmooth)
    }
}
複製程式碼

接著修改analyse函式:

func analyse(with buffer: AVAudioPCMBuffer) -> [[Float]] {
    let channelsAmplitudes = fft(buffer)
    let aWeights = createFrequencyWeights()
    //1: 初始化spectrumBuffer
    if spectrumBuffer.count == 0 {
        for _ in 0..<channelsAmplitudes.count {
            spectrumBuffer.append(Array<Float>(repeating: 0, count: frequencyBands))
        }
    }
    //2: index在給spectrumBuffer賦值時需要用到
    for (index, amplitudes) in channelsAmplitudes.enumerated() {
        let weightedAmp = amplitudes.enumerated().map {(index, element) in
            return element * aWeights[index]
        }
        var spectrum = bands.map {
            findMaxAmplitude(for: $0, in: weightedAmplitudes, with: Float(buffer.format.sampleRate)  / Float(self.fftSize)) * 5
        }
        spectrum = highlightWaveform(spectrum: spectrum)
        //3: zip用法前面已經介紹過了
        let zipped = zip(spectrumBuffer[index], spectrum)
        spectrumBuffer[index] = zipped.map { $0.0 * spectrumSmooth + $0.1 * (1 - spectrumSmooth) }
    }
    return spectrumBuffer
}
複製程式碼

再次執行專案,得到最終效果:

一步一步教你實現iOS音訊頻譜動畫(二)

結尾

音訊頻譜的動畫實現到此已經全部完成。本人之前對音訊和聲學毫無經驗,兩篇文章涉及的方法理論均參考自網際網路,肯定有不少錯誤,歡迎指正。

參考資料
[1] 維基百科, 倍頻程頻帶, en.wikipedia.org/wiki/Octave…
[2] 維基百科, 響度, zh.wikipedia.org/wiki/%E9%9F…
[3] mathworks,A-weighting Filter with Matlab,www.mathworks.com/matlabcentr…
[4] 動畫效果:網易雲音樂APPMOO音樂APP。感興趣的同學可以用卡農鋼琴版音樂和這兩款APP進行對比^_^,會發現區別。

相關文章