深度學習運算元最佳化-FFT
背景
在數字訊號和數字影像領域, 對頻域的研究是一個重要分支。 我們日常“加工”的影像都是畫素級,被稱為是影像的空域資料。空域資料表徵我們“可讀”的細節。如果我們將同一張影像視為訊號,進行頻譜分析,可以得到影像的頻域資料。 觀察下面這組圖 (),頻域圖中的亮點為低頻訊號,代表影像的大部分能量,也就是影像的主體資訊。暗點為高頻訊號,代表影像的邊緣和噪聲。從組圖可以看出,Degraded Goofy 與 Goofy 相比,近似的低頻訊號保留住了 Goofy 的“輪廓”,而其高頻訊號的增加使得背景噪點更加明顯。頻域分析使我們可以瞭解影像的組成,進而做更多的抽象分析和細節處理。
Goofy and Degraded Goofy
實現影像空域和頻域轉換的工具,就是傅立葉變換。由於影像資料在空間上是離散的,我們使用傅立葉變換的離散形式 DFT(Discrete Fourier Transform)及其逆變換 IDFT(Inverse Discrete Fourier Transform)。Cooley-Tuckey 在 DFT 的基礎上,開發了更快的演算法 FFT(Fast Fourier Transform)。
DFT/FFT 在數字影像領域還有一些延伸應用。比如基於 DFT 的 DCT(Discrete Cosine Transform, 離散餘弦變換)就用在了影像壓縮 JPEG 演算法 () 和影像水印演算法()。
JPEG 編碼是透過色彩空間轉換、抽樣分塊、DCT 變換、量化編碼實現的。其中 DCT 變換的使用將影像低頻資訊和高頻資訊區分開,在量化編碼過程中壓縮了少量低頻資訊、大量高頻資訊從而獲得尺寸上壓縮。從貓臉圖上可看出隨著壓縮比增大畫質會變差,但是主體資訊還是得以保留。
貓臉不同 jpeg 畫質(壓縮比)
影像水印演算法透過 DCT 將原圖轉換至頻域,選取合適的位置嵌入水印影像資訊,並透過 IDCT 轉換回原圖。這樣對原影像的改變較小不易察覺,且水印透過操作可以被提取。
DFT/FFT 在深度學習領域也有延伸應用。 比如利用 FFT 可以降低卷積計算量的特點,FFT_Conv 演算法也成為常見的深度學習卷積演算法。本文我們就來探究一下頻域演算法的原理和最佳化策略。
DFT 的原理及最佳化
公式
無論是多維的 DFT 運算,還是有基於 DFT 的 DCT/FFT_Conv, 底層的計算單元都是 DFT_1D。 因此,DFT_1D 的最佳化是整個 FFT 類運算元最佳化的基礎。 DFT_1D 的計算公式:
Xk=∑n=0N−1xne−j2πknNk=0,…,N−1X_{k}=sum_{n=0}^{mathrm{N}-1} x_{n} e^{-j 2 pi k frac{n}{N}} quad k=0, ldots, N-1Xk=∑n=0N−1xne−j2πkNnk=0,…,N−1
其中xnx_{n}xn 為長度為 N 的輸入訊號,e−j2πknNe^{-j 2 pi k frac{n}{N}}e−j2πkNn 是 1 的 N 次根,XkX_{k}Xk 為長度為 N 的輸出訊號。 該公式的矩陣形式為:
[X(0)X(1)⋮X(N−1)]=[WNnk][x(0)x(1)⋮x(N−1)]left[begin{array}{c}X(0) \ X(1) \ vdots \ X(N-1)end{array}right]=left[W_{N}^{n k}right]left[begin{array}{c} left.x(0right) \ x(1) \ vdots \ x(N-1)end{array}right]⎣⎢⎢⎢⎢⎡X(0)X(1)⋮X(N−1)⎦⎥⎥⎥⎥⎤=[WNnk]⎣⎢⎢⎢⎢⎡x(0)x(1)⋮x(N−1)⎦⎥⎥⎥⎥⎤
單位復根的性質
DFT_1D 中的WNnk=e−j2πknNW_{N}^{nk} = e^{-j 2 pi k frac{n}{N}}WNnk=e−j2πkNn 是 1 的單位復根。直觀地看,就是將複平面劃分為 N 份,根據 k * n 的值逆時針掃過複平面的圓周。
單位復根有著週期性和對稱性,我們依據這兩個性質可以對 W 矩陣做大量的簡化,構成 DFT_1D 的快速演算法的基礎。
週期性:WNk+N=WNkW_{N}^{k +N}=W_{N}^{k}WNk+N=WNk
對稱性:WNk+N/2=−WNkW_{N}^{k+N / 2}=-W_{N}^{k}WNk+N/2=−WNk
Cooley-Tuckey FFT 演算法
DFT_1D 的多種快速演算法中,使用最頻繁的是 Cooley-Tuckey FFT 演算法。演算法採用用分治的思想,將輸入尺寸為 N 的序列,按照不同的基 radix,分解為 N/radix 個子序列,並對每個子序列再劃分,直到不能再被劃分為止。每一次劃分都可以得到一級 stage,將所有的級自下而上組合在一起,計算得到最後的輸出序列。 這裡以 N = 8, radix=2 為例展示推理過程。 其中x(k)x(k)x(k)為 N=8 的序列,XF(k)X^{F}(k)XF(k)為 DFT 輸出序列。 根據 DFT 的計算公式
XF(k)=W80x0+W8kx1+W82kx2+W83kx3+W84kx4+W85kx5+W86kx6+W87kx7X^{F}(k)=W_{8}^{0} x_{0}+W_{8}^{k} x_{1}+W_{8}^{2 k} x_{2}+W_{8}^{3k} x_{3}+W_{8}^{4k} x_{4} + W_{8}^{5k} x_{5}+W_{8}^{6k} x_{6} +W_{8}^{7k} x_{7}XF(k)=W80x0+W8kx1+W82kx2+W83kx3+W84kx4+W85kx5+W86kx6+W87kx7
根據奇偶項拆開,分成兩個長度為 4 的序列G(k)G(k)G(k),H(k)H(k)H(k)。
XF(k)=W80x0+W82kx2+W84kx4+W86kx6X^{F}(k)= W_{8}^{0} x_{0}+W_{8}^{2 k} x_{2}+W_{8}^{4 k} x_{4}+W_{8}^{6 k} x_{6}XF(k)=W80x0+W82kx2+W84kx4+W86kx6
+W8k(W80x1+W82kx3+W84kx5+W86kx7)+W_{8}^{k}left(W_{8}^{0} x_{1}+W_{8}^{2 k} x_{3}+W_{8}^{4 k} x_{5}+W_{8}^{6 k} x_{7}right)+W8k(W80x1+W82kx3+W84kx5+W86kx7)
=GF(k)+W8kHF(k)=G^{F}(k)+W_{8}^{k} H^{F}(k)=GF(k)+W8kHF(k)
XF(k+4)=W80x0+W82(k+4)x2+W84(k+4)x4+W86(k+4)x6X^{F}(k+4)=W_{8}^{0} x_{0}+W_{8}^{2(k+4)} x_{2}+W_{8}^{4(k+4)} x_{4}+W_{8}^{6(k+4)} x_{6}XF(k+4)=W80x0+W82(k+4)x2+W84(k+4)x4+W86(k+4)x6
+W8(k+4)(W80x1+W82(k+4)x3+W84(k+4)x5+W86(k+4)x7)+W_{8}^{(k+4)}left(W_{8}^{0} x_{1}+W_{8}^{2(k+4)} x_{3}+W_{8}^{4(k+4)} x_{5}+W_{8}^{6(k+4)} x_{7}right)+W8(k+4)(W80x1+W82(k+4)x3+W84(k+4)x5+W86(k+4)x7)
=GF(k)+W8k+4HF(k)=G^{F}(k)+W_{8}^{k+4} H^{F}(k)=GF(k)+W8k+4HF(k)
=GF(k)−W8kHF(k)=G^{F}(k)-W_{8}^{k} H^{F}(k)=GF(k)−W8kHF(k)
GF(k)G^{F}(k)GF(k)和HF(k)H^{F}(k)HF(k)為G(k)G(k)G(k)和H(k)H(k)H(k)的 DFT 結果。GF(k)G^{F}(k)GF(k)和HF(k)H^{F}(k)HF(k)乘以對應的旋轉因子W8kW_{8}^{k}W8k,進行簡單的加減運算可以得到輸出XF(k)X^{F}(k)XF(k)。 同理,對G(k)G(k)G(k)和H(k)H(k)H(k)也做一樣的迭代,A(k)A(k)A(k),B(k)B(k)B(k),C(k)C(k)C(k),D(k)D(k)D(k) 都是 N=2 的序列,用他們的 DFT 結果進行組合運算可以得到GF(k)G^{F}(k)GF(k)和HF(k)H^{F}(k)HF(k)。
GF(k)=AF(k)+W4kBF(k)begin{aligned} &G^{F}(k)=A^{F}(k) + W_{4}^{k}B^{F}(k)\ end{aligned}GF(k)=AF(k)+W4kBF(k)
GF(k+2)=AF(k)−W4kBF(k)begin{aligned} &G^{F}(k+2)=A^{F}(k)-W_{4}^{k}B^{F}(k)\ end{aligned}GF(k+2)=AF(k)−W4kBF(k)
HF(k)=CF(k)+W4kDF(k)begin{aligned} &H^{F}(k)=C^{F}(k)+W_{4}^{k}D^{F}(k)\ end{aligned}HF(k)=CF(k)+W4kDF(k)
HF(k+2)=CF(k)−W4kDF(k)begin{aligned} &H^{F}(k+2)=C^{F}(k)-W_{4}^{k}D^{F}(k)\ end{aligned}HF(k+2)=CF(k)−W4kDF(k)
計算 N=2 的序列AF(k)A^{F}(k)AF(k),BF(k)B^{F}(k)BF(k),CF(k)C^{F}(k)CF(k),DF(k)D^{F}(k)DF(k), 因為k=0k=0k=0,旋轉因子W20W_{2}^{0}W20= 1。只要進行加減運算得到結果。
[AF(0)AF(1)]=[111−1][x0x4]left[begin{array}{l} A^{F}(0) \ A^{F}(1) end{array}right]=left[begin{array}{ll} 1 & 1 \ 1 & -1 end{array}right]left[begin{array}{l} x_{0} \ x_{4} \ end{array}right][AF(0)AF(1)]=[111−1][x0x4]
[BF(0)BF(1)]=[111−1][x2x6]left[begin{array}{l} B^{F}(0) \ B^{F}(1) end{array}right]=left[begin{array}{ll} 1 & 1 \ 1 & -1 end{array}right]left[begin{array}{l} x_{2} \ x_{6} \ end{array}right][BF(0)BF(1)]=[111−1][x2x6]
[CF(0)CF(1)]=[111−1][x1x5]left[begin{array}{l} C^{F}(0) \ C^{F}(1) end{array}right]=left[begin{array}{ll} 1 & 1 \ 1 & -1 end{array}right]left[begin{array}{l} x_{1} \ x_{5} \ end{array}right][CF(0)CF(1)]=[111−1][x1x5]
[DF(0)DF(1)]=[111−1][x3x7]left[begin{array}{l} D^{F}(0) \ D^{F}(1) end{array}right]=left[begin{array}{ll} 1 & 1 \ 1 & -1 end{array}right]left[begin{array}{l} x_{3} \ x_{7} \ end{array}right][DF(0)DF(1)]=[111−1][x3x7]
用演算法圖形表示,每一層的計算會產生多個蝶形,因此該演算法又被稱為蝶形演算法。 這裡我們要介紹碟形網路的基本組成,對下文的分析有所幫助。
N=8 碟形演算法圖
N=8 的計算序列被分成了 3 級,每一級 (stage) 有一個或多個塊 (section),每個塊中包含了一個或者多個蝶形(butterfly), 蝶形的計算就是 DFT 運算的 kernel。 每一個 stage 的計算順序:
取輸入
乘以轉換因子
for section_num, for butterfly_num,執行 radixN_kernel
寫入輸出。
看 N=8 的蝶形演算法圖,stage = 1 時,運算被分成了 4 個 section,每個 section 的 butterfly_num = 1。stage = 2 時,section_num = 2,butterfly_num = 2。 stage = 3 時,section_num = 1,butterfly_num = 4。 可以觀察到,從左到右過程中 section_num 不斷減少,butterfly_num 不斷增加,蝶形群在“變大變密”,然而每一級總的碟形次數是不變的。 實際上,對於長度為 N,radix = r 的演算法,我們可以推得到:
Sectext SecSec _numtext numnum =N/rSN / r^ {S}N/rS
Butterflytext ButterflyButterfly _numtext numnum =rS−1r^{S-1}rS−1
Sectext SecSec _stride=rStext stride =r^{S}stride=rS
Butterflytext ButterflyButterfly_stridestridestride=111
S 為當前的 stage,sec/butterfly_stride 是每個 section/butterfly 的間隔。複製程式碼
這個演算法可以將複雜度從 O(n^2) 下降到 O(nlogn),顯得高效而優雅。我們基於蝶形演算法,對於不同的 radix 進行演算法的進一步劃分和最佳化,主要分為 radix - 2 的冪次的和 radix – 非 2 的冪次兩類。
radix-2 的冪次最佳化
DFT_1D 的 kernel 即為矩陣形式中的WNnkW_{N}^{nk}WNnk矩陣,我們對 radix_2^n 的 kernel 進行分析。
背景裡提到, DFT 公式的矩陣形式為:
[X(0)X(1)⋮X(N−1)]=[WNnk][x(0)x(1)⋮x(N−1)]left[begin{array}{c}X(0) \ X(1) \ vdots \ X(N-1)end{array}right]=left[W_{N}^{n k}right]left[begin{array}{c} left.x(0right) \ x(1) \ vdots \ x(N-1)end{array}right]⎣⎢⎢⎢⎢⎡X(0)X(1)⋮X(N−1)⎦⎥⎥⎥⎥⎤=[WNnk]⎣⎢⎢⎢⎢⎡x(0)x(1)⋮x(N−1)⎦⎥⎥⎥⎥⎤
其中x(0)x(0)x(0) ~x(N−1)x(N-1)x(N−1)為乘以旋轉因子WNknW_{N}^{kn}WNkn後的輸入
當 radix = 2 時,由於W21W_{2}^1W21 = -1,W22W_{2}^2W22 = 1, radix_2 的 DFT 矩陣形式可以寫為:
[XkXk+N/2]left[begin{array}{c}mathrm{X}_{mathrm{k}} \ mathrm{X}_{mathrm{k}+mathrm{N} / 2}end{array}right][XkXk+N/2]=[111−1][WN0AkWNkBk]=left[begin{array}{cc}1 & 1 \ 1 & -1end{array}right]left[begin{array}{l}mathrm{W}_{mathrm{N}}^{0} mathrm{A}_{mathrm{k}} \ mathrm{W}_{mathrm{N}}^{mathrm{k}} mathrm{B}_{mathrm{k}}end{array}right]=[111−1][WN0AkWNkBk]
當 radix = 4 時,由於W41W_{4}^1W41 = -j,W42W_{4}^2W42 = -1,W43W_{4}^3W43 = j,W44W_{4}^4W44= 1,radix_4 的 DFT 矩陣形式可以寫為:
[XkXk+N/4Xk+N/2Xk+3 N/4]=[11111−j−1j1−11−11j−1−j][WN0AkWNkBkWN2kCkWN3kDk]left[begin{array}{c}mathrm{X}_{mathrm{k}} \ mathrm{X}_{mathrm{k}+mathrm{N} / 4} \ mathrm{X}_{mathrm{k}+mathrm{N} / 2} \ mathrm{X}_{mathrm{k}+3 mathrm{~N} / 4}end{array}right]=left[begin{array}{cccc}1 & 1 & 1 & 1 \ 1 & -mathrm{j} & -1 & mathrm{j} \ 1 & -1 & 1 & -1 \ 1 & mathrm{j} & -1 & -mathrm{j}end{array}right]left[begin{array}{c}mathrm{W}_{mathrm{N}}^{0} mathrm{A}_{mathrm{k}} \ mathrm{W}_{mathrm{N}}^{mathrm{k}} mathrm{B}_{mathrm{k}} \ mathrm{W}_{mathrm{N}}^{2 mathrm{k}} mathrm{C}_{mathrm{k}} \ mathrm{W}_{mathrm{N}}^{3 mathrm{k}} mathrm{D}_{mathrm{k}}end{array}right]⎣⎢⎢⎢⎡XkXk+N/4Xk+N/2Xk+3 N/4⎦⎥⎥⎥⎤=⎣⎢⎢⎢⎡11111−j−1j1−11−11j−1−j⎦⎥⎥⎥⎤⎣⎢⎢⎢⎡WN0AkWNkBkWN2kCkWN3kDk⎦⎥⎥⎥⎤
同理推得到 radix_8 的 kernel 為:
[111111111 W81−j W83−1−W81j−W831−j−1j1−j−1j1 W83j W81−1−W83−j−W811−11−11−11−11−W81−j−W83−1 W81j W831j−1−j1j−1−j1−W83j−W81−1 W83−j W81]left[begin{array}{cccccccc}1 & 1 & 1 & 1 & 1 & 1 & 1 & 1 \ 1 & mathrm{~W}_{8}^{1} & -j & mathrm{~W}_{8}^{3} & -1 & -mathrm{W}_{8}^{1} & j & -mathrm{W}_{8}^{3} \ 1 & -j & -1 & j & 1 & -j & -1 & j \ 1 & mathrm{~W}_{8}^{3} & j & mathrm{~W}_{8}^{1} & -1 & -mathrm{W}_{8}^{3} & -j & -mathrm{W}_{8}^{1} \ 1 & -1 & 1 & -1 & 1 & -1 & 1 & -1 \ 1 & -mathrm{W}_{8}^{1} & -j & -mathrm{W}_{8}^{3} & -1 & mathrm{~W}_{8}^{1} & j & mathrm{~W}_{8}^{3} \ 1 & j & -1 & -j & 1 & j & -1 & -j \ 1 & -mathrm{W}_{8}^{3} & j & -mathrm{W}_{8}^{1} & -1 & mathrm{~W}_{8}^{3} & -j & mathrm{~W}_{8}^{1}end{array}right]⎣⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎡111111111 W81−j W83−1−W81j−W831−j−1j1−j−1j1 W83j W81−1−W83−j−W811−11−11−11−11−W81−j−W83−1 W81j W831j−1−j1j−1−j1−W83j−W81−1 W83−j W81⎦⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎤
我們先來看訪存,現代處理器對於計算效能的最佳化要優於對於訪存的最佳化,在計算和訪存相近的場景下, 訪存通常是效能瓶頸。
DFT1D 中,對於不同基底的演算法 r-2/r-4/r-8, 每一個 stage 有著相等的存取量:2 * butterfly_num * radix = 2N, 而不同的基底對應的 stage 數有著明顯差異(log2Nlog_2Nlog2N vslog4Nlog_4Nlog4N vslog8Nlog_8Nlog8N)。
因此對於 DFT, 在不顯著增加計算量的條件下, 選用較大的 kernel 會在訪存上取得明顯的優勢。觀察推導的 kernel 圖, r-2 的 kernel 每個蝶形對應 4 次訪存操作和,2 次複數浮點加減運算。r-4 的 kernel 每個蝶形演算法對應 8 次 load/store、8 次複數浮點加減操作(合併相同的運算),在計算量略增加的同時 stage 由log2Nlog_2Nlog2N 下降到log4Nlog_4Nlog4N , 降低了總訪存的次數, 因此會有效能的提升。r-8 的 kernel 每個蝶形對應 16 次 load/store、24 次複數浮點加法和 8 次浮點乘法。浮點乘法的存在使得計算代價有所上升, stage 由log4Nlog_4Nlog4N 進一步下降到log8Nlog_8Nlog8N ,但由於 N 日常並不會太大, r-4 到 r-8 的 stage 減少不算明顯,所以最佳化有限
我們再來看計算的開銷。減少計算的開銷通常有兩種辦法:減少多餘的運算、並行化。
以 r-4 演算法為例,kernel 部分的計算為:
radix_4_first_stage(src, dst, sec_num, butterfly_num)
-
radix_4_other_stage(src, dst, sec_num, butterfly_num)
for butterfly_num
raidx_4_kernel
for Sec_num
radix4_first_stage 的資料由於 k=0, 旋轉因子都為 1,可以省去這部分複數乘法運算,單獨最佳化。 radix4_other_stage 部分, 從第 2 個 stage 往後, butterfly_num = 4^(s-1) 都為 4 的倍數,而每個 butterfly 陣列讀取/儲存都是間隔的。可以對最裡層的迴圈做迴圈展開加向量化,實現 4 個或更多 butterfly 並行運算。迴圈展開和 SIMD 指令的使用不僅可以提高並行性, 也可以提升 cacheline 利用的效率,可以帶來較大的效能提升。 以 SM8150(armv8) 為例,r-4 的並行最佳化可以達到 r2 的 1.6x 的效能。
尺寸:1 * 2048(r2c) 環境:SM8150 大核
總之,對於 radix-2^n 的最佳化,選用合適的 radix 以減少多 stage 帶來的訪存開銷,並且利用單位復根性質以及並行化降低計算的開銷,可以帶來較大的效能提升。
radix-非 2 的冪次最佳化
當輸入長度 N = radix1^m1 * radix2^m2... 且 radix 都不為 2 的冪次時,如果使用 naive 的 O(n^2) 演算法, 效能就會急劇下降。 常見的解決辦法對原長補 0、使用 radix_N 演算法、特殊的 radix_N 演算法 (chirp-z transform)。補 0 至 2 的冪次方法對於大尺寸的輸入要增加很多運算量和儲存量, 而 chirp-z transform 是用卷積計算 DFT, 演算法過於複雜。因此對非 2 的冪次 radix-N 的最佳化也是必要的。
radix-N 計算流程和 radix-2 冪次一樣,我們同樣可以利用單位復根的週期性和對稱性,對 kernel 進行計算的簡化。 以 radix-5 為例,radix-5 的 DFT_kernel 為:
[111111W51W52W5−2W5−11W52W5−1W51W5−21W5−2W51W5−1W521W5−1W5−2W52W51]left[begin{array}{cccc} 1&1&1&1&1\ 1 &mathrm{W}_{mathrm{5}}^{1} & mathrm{W}_{mathrm{5}}^{2} & mathrm{W}_{mathrm{5}}^{-2} & mathrm{W}_{mathrm{5}}^{-1} \ 1 &mathrm{W}_{mathrm{5}}^{2} & mathrm{W}_{mathrm{5}}^{-1} & mathrm{W}_{mathrm{5}}^{1} & mathrm{W}_{mathrm{5}}^{-2} \ 1 &mathrm{W}_{mathrm{5}}^{-2} & mathrm{W}_{mathrm{5}}^{1} & mathrm{W}_{mathrm{5}}^{-1} & mathrm{W}_{mathrm{5}}^{2} \ 1 &mathrm{W}_{mathrm{5}}^{-1} & mathrm{W}_{mathrm{5}}^{-2} & mathrm{W}_{mathrm{5}}^{2} & mathrm{W}_{mathrm{5}}^{1} \ end{array}right]⎣⎢⎢⎢⎢⎢⎡111111W51W52W5−2W5−11W52W5−1W51W5−21W5−2W51W5−1W521W5−1W5−2W52W51⎦⎥⎥⎥⎥⎥⎤
W5kW_5^kW5k 和W5−kW_{5}^{-k}W5−k在複平面上根據 x 軸對稱,有相同的實部和相反的虛部。根據這個性質。如下圖所示,對於每一個 stage,可以合併公共項 A,B,C,D,再根據公共項計算出該 stage 的輸出。
A=(x1+x4)∗W51⋅r+(x2+x3)∗W52⋅rA=left(x_{1}+x_{4}right) * W_{5}^{1} cdot r+left(x_{2}+x_{3}right) * W_{5}^{2} cdot rA=(x1+x4)∗W51⋅r+(x2+x3)∗W52⋅r
B=(−j)∗[(x1−x4)∗W51⋅i+(x2−x3)∗W52⋅i]B=(-j) * left[left(x_{1}-x_{4}right) * W_{5}^{1} cdot i+left(x_{2}-x_{3}right) * W_{5}^{2} cdot iright]B=(−j)∗[(x1−x4)∗W51⋅i+(x2−x3)∗W52⋅i]
C=(x1+x4)∗W52⋅r+(x2+x3)∗W51⋅rC=left(x_{1}+x_{4}right) * W_{5}^{2} cdot r+left(x_{2}+x_{3}right) * W_{5}^{1} cdot rC=(x1+x4)∗W52⋅r+(x2+x3)∗W51⋅r
D=j∗[(x1−x4)∗W52⋅i−(x2−x3)∗W51⋅i]D=j * left[left(x_{1}-x_{4}right) * W_{5}^{2} cdot i-left(x_{2}-x_{3}right) * W_{5}^{1} cdot iright]D=j∗[(x1−x4)∗W52⋅i−(x2−x3)∗W51⋅i]
X(k)=x0+(x1+x4)+(x2+x3)begin{array}{l} X(k)=x_{0}+left(x_{1}+x_{4}right)+left(x_{2}+x_{3}right)\ end{array}X(k)=x0+(x1+x4)+(x2+x3)
X(k+N/5)=x0+A−Bbegin{array}{l} X(k+N/5)=x_{0}+mathrm{A}-mathrm{B}\ end{array}X(k+N/5)=x0+A−B
X(k+2N/5)=x0+C+Dbegin{array}{l} X(k+2N/5)=x_{0}+mathrm{C}+mathrm{D}\ end{array}X(k+2N/5)=x0+C+D
X(k+3N/5)=x0+C−Dbegin{array}{l} X(k+3N/5)=x_{0}+C-D\ end{array}X(k+3N/5)=x0+C−D
X(k+4N/5)=x0+A+Bbegin{array}{l} X(k+4N/5)=x_{0}+mathrm{A}+mathrm{B}\ end{array}X(k+4N/5)=x0+A+B
這種演算法減少了很多重複的運算。同時,在 stage>=2 的時候,同樣對 butterfly 做迴圈展開加並行化,進一步減少計算的開銷。 radix-5 的最佳化思想可以外推至 radix-N。對於 radix_N 的每一個 stage, 計算流程為:
取輸入
乘以對應的轉換因子
計算公共項, radix_N 有 N-1 個公共項
執行並行化的 radix_N_kernel
寫入輸出
其他最佳化
上述兩個章節描述的是 DFT_1D 的通用最佳化,在此基礎上還可以做更細緻的最佳化,可以參考本文引用的論文。
對於全實數輸入的, 由於輸入的虛部為 0, 進行旋轉因子以及 radix_N_kernel 的複數運算時會有多餘的運算和多餘的儲存, 可以利用 split r2c 演算法, 視為長度為 N/2 的複數序列, 計算 DFT 結果並進行 split 操作得到 N 長實數序列的結果。
對於 radix-2 的冪次演算法, 重新計算每個 stage 的輸入/輸出 stride 以取消第一級的位元翻轉可以進一步減少訪存的開銷。
對於 radix-N 演算法, 在混合基框架下 N = radix1^m1 * radix2^m2, 合併較小的 radix 為大的 radix 以減少 stage。
DFT 延展演算法的原理及最佳化
DCT 和 FFT_conv 兩個典型的基於 DFT 延展的演算法,DFT_1D/2D 的最佳化可以很好的用在這類演算法中。
DCT
DCT 演算法(Discrete Cosine Transform, 離散餘弦變換)可以看作是 DFT 取其正弦分量並經過工業校正的演算法。DFT_1D 的計算公式為:
X[k]=C(k)∑n=0N−1x[n]cos((2n+1)πk2N)C(k)=1nk=1C(k)=2nk!=1begin{aligned} X[k] &=C(k) sum_{n=0}^{N-1} x[n] cos left(frac{(2 n+1) pi k}{2 N}right) \ &C(k)=sqrt{frac{1}{n}} \&k=1 \ &C(k)=sqrt{frac{2}{n}} \&k!=1 \ end{aligned}X[k]=C(k)n=0∑N−1x[n]cos(2N(2n+1)πk)C(k)=n1k=1C(k)=n2k!=1
該演算法 naive 實現是 O(n^2) 的,而我們將其轉換成 DFT_1D 演算法,可以將演算法複雜度降至 O(nlogn)。 基於 DFT 的 DCT 演算法流程為:
對於 DCT 的輸入序列 x[n], 建立長為 2N 的輸入序列 y[n] 滿足 y[n] = x[n] + x[2N-n-1], 即做一個映象對稱。
對輸入序列 y[n] 進行 DFT 運算,得到輸出序列 Y[K]。
由 Y[K] 計算得到原輸入序列的輸出 X[K] 。
我們嘗試推導一下這個演算法:
y[n]=x[n]+x[2N−1−n]begin{array}{l} y[n]=x[n]+x [2 N-1-n] \ end{array}y[n]=x[n]+x[2N−1−n]
Y[k]=∑n=0N−1x[n]⋅e−j2πkn2N+∑n=N2N−1x[2N−1−n]⋅e−j2πkn2Nbegin{array}{l} Y[k]=sum_{n=0}^{N-1} x[n]cdot e^{-j frac{2 pi k n}{2 N}} +sum_{n=N}^{2 N-1} x[2 N-1-n] cdot e^{-j frac{2 pi k n}{2 N}} end{array}Y[k]=∑n=0N−1x[n]⋅e−j2N2πkn+∑n=N2N−1x[2N−1−n]⋅e−j2N2πkn
=∑n=0N−1x[n]⋅e−j2πkn2N+∑n=0N−1x[n]⋅e−j2πk(2N−1−n)2Nbegin{array}{l} \=sum_{n=0}^{N-1} x[n]cdot e^{-j frac{2 pi k n}{2 N}} +sum_{n=0}^{N-1} x[n] cdot e^{-j frac{2 pi k (2N-1-n)}{2 N}} end{array}=∑n=0N−1x[n]⋅e−j2N2πkn+∑n=0N−1x[n]⋅e−j2N2πk(2N−1−n)
=e−j2πk2N⋅∑n=0N−1x[n](e−j2π2Nkn⋅e−jπ2Nk+ej2π2Nkn⋅ejπ2Nk)begin{array}{l} \=e^{-j frac{2 pi k }{2 N}} cdot sum_{n=0}^{N-1} x[n] (e^{-j frac{2pi}{2 N} kn} cdot e^{-j frac{pi}{2 N}k}+e^{j frac{2pi}{2 N} kn} cdot e^{j frac{pi}{2 N}k}) end{array}=e−j2N2πk⋅∑n=0N−1x[n](e−j2N2πkn⋅e−j2Nπk+ej2N2πkn⋅ej2Nπk)
=e−j2πk2N⋅∑n=0N−1x[n]⋅2⋅cos(2n+12Nkπ)begin{array}{l} \=e^{-j frac{2 pi k }{2 N}} cdot sum_{n=0}^{N-1} x[n] cdot 2cdotcos(frac{2n+1}{2N} kpi) end{array}=e−j2N2πk⋅∑n=0N−1x[n]⋅2⋅cos(2N2n+1kπ)
=e−j2πk2N⋅C(u)⋅X[k]begin{array}{l} \=e^{-j frac{2 pi k }{2 N}} cdot C(u) cdot X[k] end{array}=e−j2N2πk⋅C(u)⋅X[k]
對 y[n] 依照 DFT 公式展開,整理展開的兩項並提取公共項e−j2πk2Ne^{-j frac{2 pi k }{2 N}}e−j2N2πk, 根據尤拉公式和誘導函式,整理非公共項(e−j2π2Nkn⋅e−jπ2Nk+ej2π2Nkn⋅ejπ2Nk)(e^{-j frac{2pi}{2 N} kn} cdot e^{-j frac{pi}{2 N}k}+e^{j frac{2pi}{2 N} kn} cdot e^{j frac{pi}{2 N}k})(e−j2N2πkn⋅e−j2Nπk+ej2N2πkn⋅ej2Nπk)。可以看出得到的結果正是 x[k] 和與 k 有關的係數的乘積。這樣就可以透過先計算Y[k]Y[k]Y[k]得到 x[n] 的 DCT 輸出X[k]X[k]X[k] 。
在理解演算法的基礎上,我們對 DFT_1D 的最佳化可以完整地應用到 DCT 上。DCT_2D 的計算過程是依次對行、列做 DCT_1D, 我們用多執行緒對 DCT_1D 進行並行,可以進一步最佳化演算法。
FFT_conv
Conv 是深度學習最常見的運算,計算 conv 常用的方法有 IMG2COL+GEMM, Winograd, FFT_conv。三種演算法都有各自的使用場景。
FFT_conv 的數學原理是時域中的迴圈卷積對應於其離散傅立葉變換的乘積。如下圖所示, f 和 g 的卷積等同於將 f 和 g 各自做傅立葉變幻 F,進行點乘並透過傅立葉逆變換計算後的結果。
f∗ Circ g=F−1(F(f)⋅F(g))f underset{text { Circ }}{*} g=mathcal{F}^{-1}(mathcal{F}(f) cdot mathcal{F}(g))f Circ ∗g=F−1(F(f)⋅F(g))
直觀的理論證明可下圖()。
F[f∗g]{F}[f * g]F[f∗g]
=∫−∞∞[(∫−∞∞g(z)f(x−z)dz)e−ikx]dx=int_{-infty}^{infty}left[left(int_{-infty}^{infty}g(z)f(x-z)dzright)e^{-i k x}right]dx=∫−∞∞[(∫−∞∞g(z)f(x−z)dz)e−ikx]dx
=∫−∞∞g(z)[∫−∞∞f(x−z)e−ikxdx]dz=int_{-infty}^{infty} g(z)left[int_{-infty}^{infty} f(x-z) e^{-i k x} d xright] d z=∫−∞∞g(z)[∫−∞∞f(x−z)e−ikxdx]dz
=∫−∞∞g(z)[∫−∞∞f(y)e−ik(y+z)dy]dz=int_{-infty}^{infty} g(z)left[int_{-infty}^{infty} f(y) e^{-i k(y+z)} d yright] d z=∫−∞∞g(z)[∫−∞∞f(y)e−ik(y+z)dy]dz
=[∫−∞∞g(z)e−ikzdz][∫−∞∞f(y)e−ikydy]=left[int_{-infty}^{infty} g(z) e^{-i k z} d zright]left[int_{-infty}^{infty} f(y) e^{-i k y} d yright]=[∫−∞∞g(z)e−ikzdz][∫−∞∞f(y)e−ikydy]
=F[f]⋅F[g]=mathcal{F}[f] cdot mathcal{F}[g]=F[f]⋅F[g]
將卷積公式和離散傅立葉變換展開, 改變積分的順序並且替換變數, 可以證明結論。 注意這裡的卷積是迴圈卷積, 和我們深度學習中常用的線性卷積是有區別的。 利用迴圈卷積計算線性卷積的條件為迴圈卷積長度 L⩾| f |+| g |−1。 因此我們要對 Feature Map 和 Kernel 做 zero-padding,並從最終結果中取有效的線性計算結果。
FFT_conv 演算法的流程:
將 Feature Map 和 Kernel 都 zero-pad 到同一個尺寸,進行 DFT 轉換。
矩陣點乘
將計算結果透過 IDFT 計算出結果。
該演算法將卷積轉換成點乘, 演算法複雜度是 O(nlogn), 小於卷積的 O(n^2), 在輸入的尺寸比較大時可以減少運算量,適用於大 kernel 的 conv 演算法。
深度學習計算中, Kernel 的尺寸要遠小於 Feature Map, 因此 FFT_conv 第一步的 zero-padding 會有很大的開銷,參考論文 2 裡提到可以透過對 Feature map 進行分塊, 分塊後的 Feature Map 和 Kernel 需要 padding 到的尺寸較小,可以大幅減小這一部分的開銷。 最佳化後 fft_conv 的計算流程為:
合理安排快取計算出合適的 tile 尺寸,對原圖進行分塊
分塊後的小圖和 kernel 進行 zero-padding, 並進行 DFT 運算
小圖矩陣點乘
進行逆運算並組合成大圖。
同時我們可以觀察到,FFT_conv 的核心計算模組還是針對小圖的 DFT 運算, 因此我們可以將前一章節對 DFT 的最佳化代入此處,輔以多執行緒,進一步提升 FFT_Conv 的計算效率。
作者:MegEngine
連結:
來源:掘金
著作權歸作者所有。商業轉載請聯絡作者獲得授權,非商業轉載請註明出處。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/4798/viewspace-2796792/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 深度學習運算元優化-FFT深度學習優化FFT
- 【TVM 學習資料】用 Schedule 模板和 AutoTVM 最佳化運算元
- Python學習:運算元據庫Python
- 使用 Auto-scheduling 最佳化運算元
- [學習筆記] FFT筆記FFT
- FFT學習筆記FFT筆記
- 如何從系統層面最佳化深度學習計算?深度學習
- openGauss都做了哪些運算元最佳化工作?
- 學習位運算
- spark-運算元-分割槽運算元Spark
- 運算元
- Golang 學習系列第四天:運算元據庫 PostgreSQLGolangSQL
- 使用運算元控制公式運算公式
- Python 影像處理 OpenCV (12): Roberts 運算元、 Prewitt 運算元、 Sobel 運算元和 Laplacian 運算元邊緣檢測技術PythonOpenCV
- 值得收藏 | 深度剖析 TensorCore 卷積運算元實現原理卷積
- RDD運算元
- 【Spark篇】---SparkStreaming中運算元中OutPutOperator類運算元Spark
- 深度解讀昇騰CANN小shape運算元計算最佳化技術,進一步減少排程開銷
- 運算元據庫
- python運算元據Python
- JavaScript運算元組JavaScript
- 基於Ascend C的FlashAttention運算元效能最佳化最佳實踐
- halcon學習擴充系列—交集intersection的擴充運算元intersection_expand
- 深度學習中需要的矩陣計算深度學習矩陣
- 計算機視覺與深度學習公司計算機視覺深度學習
- 計算機視覺中的深度學習計算機視覺深度學習
- 如何運用深度學習從多個維度最佳化數億級別商品資料深度學習
- 深度:如何從系統層面優化深度學習計算?優化深度學習
- 運算元據庫表
- MySQL DML運算元據MySql
- jmeter運算元據庫JMeter
- DDL:運算元據庫
- onnx 運算元定義
- 什麼是運算元?
- Flink -- Operator操作運算元
- SIFT運算元總結
- 深度學習基礎-最佳化演算法詳解深度學習演算法
- 史丹佛—深度學習和計算機視覺深度學習計算機視覺