CacheLine偽共享發現與優化

yangoliver發表於2018-02-11

作者:吳一昊,楊勇

1. 關於本文

本文基於 Joe Mario 的一篇部落格 改編而成。
Joe Mario 是 Redhat 公司的 Senior Principal Software Engineer,在系統的效能優化領域頗有建樹,他也是本文描述的 perf c2c 工具的貢獻者之一。
這篇部落格行文比較口語化,且假設讀者對 CPU 多核架構,Cache Memory 層次結構,以及 Cache 的一致性協議有所瞭解。
故此,筆者決定放棄照翻原文,並且基於原部落格文章做了一些擴充套件,增加了相關背景知識簡介。
本文中若有任何疏漏錯誤,責任在於編譯者。有任何建議和意見,請回復核心月談微信公眾號,或通過 oliver.yang at linux.alibaba.com 反饋。

2. 背景知識

要搞清楚 Cache Line 偽共享的概念及其效能影響,需要對現代理器架構和硬體實現有一個基本的瞭解。
如果讀者已經對這些概念已經有所瞭解,可以跳過本小節,直接瞭解 perf c2c 發現 Cache Line 偽共享的方法。
(注:本節中的所有圖片,均來自與 Google 圖片搜尋,版權歸原作者所有。)

2.1 儲存器層次結構

眾所周知,現代計算機體系結構,通過儲存器層次結構 (Memory Hierarchy) 的設計,使系統在效能,成本和製造工藝之間作出取捨,從而達到一個平衡。
下圖給出了不同層次的硬體訪問延遲,可以看到,各個層次硬體訪問延遲存在數量級上的差異,越高的效能,往往意味著更高的成本和更小的容量:

Memory Hierarchy

通過上圖,可以對各級儲存器 Cache Miss 帶來的效能懲罰有個大致的概念。

2.2 多核架構

隨著多核架構的普及,對稱多處理器 (SMP) 系統成為主流。例如,一個物理 CPU 可以存在多個物理 Core,而每個 Core 又可以存在多個硬體執行緒。
x86 以下圖為例,1 個 x86 CPU 有 4 個物理 Core,每個 Core 有兩個 HT (Hyper Thread),

cache-ht-hierarchy-2.jpg

從硬體的角度,上圖的 L1 和 L2 Cache 都被兩個 HT 共享,且在同一個物理 Core。而 L3 Cache 則在物理 CPU 裡,被多個 Core 來共享。
而從 OS 核心角度,每個 HT 都是一個邏輯 CPU,因此,這個處理器在 OS 來看,就是一個 8 個 CPU 的 SMP 系統。

2.3 NUMA 架構

一個 SMP 系統,按照其 CPU 和記憶體的互連方式,可以分為 UMA (均勻記憶體訪問) 和 NUMA (非均勻記憶體訪問) 兩種架構。
其中,在多個物理 CPU 之間保證 Cache 一致性的 NUMA 架構,又被稱做 ccNUMA (Cache Coherent NUMA) 架構。

以 x86 為例,早期的 x86 就是典型的 UMA 架構。例如下圖,四路處理器通過 FSB (前端系統匯流排) 和主機板上的記憶體控制器晶片 (MCH) 相連,DRAM 是以 UMA 方式組織的,延遲並無訪問差異,

x86 UMA

然而,這種架構帶來了嚴重的記憶體匯流排的效能瓶頸,影響了 x86 在多路伺服器上的可擴充套件性和效能。

因此,從 Nehalem 架構開始,x86 開始轉向 NUMA 架構,記憶體控制器晶片被整合到處理器內部,多個處理器通過 QPI 鏈路相連,從此 DRAM 有了遠近之分。
而 Sandybridge 架構則更近一步,將片外的 IOH 晶片也整合到了處理器內部,至此,記憶體控制器和 PCIe Root Complex 全部在處理器內部了。
下圖就是一個典型的 x86 的 NUMA 架構:

numa-imc-iio-smb-4.png

由於 NUMA 架構的引入,以下主要部件產生了因物理鏈路的遠近帶來的延遲差異:

  • Cache

除物理 CPU 有本地的 Cache 的層級結構以外,還存在跨越系統匯流排 (QPI) 的遠端 Cache 命中訪問的情況。需要注意的是,遠端的 Cache 命中,對發起 Cache 訪問的 CPU 來說,還是被記入了 LLC Cache Miss。

  • DRAM

在兩路及以上的伺服器,遠端 DRAM 的訪問延遲,遠遠高於本地 DRAM 的訪問延遲,有些系統可以達到 2 倍的差異。
需要注意的是,即使伺服器 BIOS 裡關閉了 NUMA 特性,也只是對 OS 核心遮蔽了這個特性,這種延遲差異還是存在的。

  • Device

對 CPU 訪問裝置記憶體,及裝置發起 DMA 記憶體的讀寫活動而言,存在本地 Device 和遠端 Device 的差別,有顯著的延遲訪問差異。

因此,對以上 NUMA 系統,一個 NUMA 節點通常可以被認為是一個物理 CPU 加上它本地的 DRAM 和 Device 組成。那麼,四路伺服器就擁有四個 NUMA 節點。
如果 BIOS 開啟了 NUMA 支援,Linux 核心則會根據 ACPI 提供的表格,針對 NUMA 節點做一系列的 NUMA 親和性的優化。

在 Linux 上,numactl --hardware 可以返回當前系統的 NUMA 節點資訊,特別是 CPU 和 NUMA 節點的對應資訊。

2.4 Cache Line

Cache Line 是 CPU 和主存之間資料傳輸的最小單位。當一行 Cache Line 被從記憶體拷貝到 Cache 裡,Cache 裡會為這個 Cache Line 建立一個條目。
這個 Cache 條目裡既包含了拷貝的記憶體資料,即 Cache Line,又包含了這行資料在記憶體裡的位置等後設資料資訊。

由於 Cache 容量遠遠小於主存,因此,存在多個主存地址可以被對映到同一個 Cache 條目的情況,下圖是一個 Cache 和主存對映的概念圖:

Cache Line and Memory

而這種 Cache 到主存的對映,通常是由記憶體的虛擬或者實體地址的某幾位決定的,取決於 Cache 硬體設計是虛擬地址索引,還是實體地址索引。
然而,由於索引位一般設計為低地址位,通常在物理頁的頁內偏移以內,因此,不論是記憶體虛擬或者實體地址,都可以拿來判斷兩個記憶體地址,是否在同一個 Cache Line 裡。

Cache Line 的大小和處理器硬體架構有關。在 Linux 上,通過 getconf 就可以拿到 CPU 的 Cache Line 的大小,

$getconf -a | grep CACHE
LEVEL1_ICACHE_SIZE                 32768
LEVEL1_ICACHE_ASSOC                8
LEVEL1_ICACHE_LINESIZE             64
LEVEL1_DCACHE_SIZE                 32768
LEVEL1_DCACHE_ASSOC                8
LEVEL1_DCACHE_LINESIZE             64
LEVEL2_CACHE_SIZE                  262144
LEVEL2_CACHE_ASSOC                 8
LEVEL2_CACHE_LINESIZE              64
LEVEL3_CACHE_SIZE                  15728640
LEVEL3_CACHE_ASSOC                 20
LEVEL3_CACHE_LINESIZE              64
LEVEL4_CACHE_SIZE                  0
LEVEL4_CACHE_ASSOC                 0
LEVEL4_CACHE_LINESIZE              0

2.5 Cache 的結構

前面 Linux getconf 命令的輸出,除了 *_LINESIZE 指示了系統的 Cache Line 的大小是 64 位元組外,還給出了 Cache 類別,大小。
其中 *_ASSOC 則指示了該 Cache 是幾路關聯 (Way Associative) 的。

下圖很好的說明了 Cache 在 CPU 裡的真正的組織結構,

cache-tag-index-offset-0.png

一個主存的物理或者虛擬地址,可以被分成三部分:高地址位當作 Cache 的 Tag,用來比較選中多路 (Way) Cache 中的某一路 (Way),而低地址位可以做 Index,用來選中某一個 Cache Set。
在某些架構上,最低的地址位,Block Offset 可以選中在某個 Cache Line 中的某一部份。

因此,Cache Line 的命中,完全依靠地址裡的 Tag 和 Index 就可以做到。關於 Cache 結構裡的 Way,Set,Tag 的概念,請參考相關文件或者資料。這裡就不再贅述。

2.6 Cache 一致性

如前所述,在 SMP 系統裡,每個 CPU 都有自己本地的 Cache。因此,同一個變數,或者同一行 Cache Line,有在多個處理器的本地 Cache 裡存在多份拷貝的可能性,因此就存在資料一致性問題。
通常,處理器都實現了 Cache 一致性 (Cache Coherence)協議。如歷史上 x86 曾實現了 MESI 協議,
以及 MESIF 協議。

假設兩個處理器 A 和 B, 都在各自本地 Cache Line 裡有同一個變數的拷貝時,此時該 Cache Line 處於 Shared 狀態。當處理器 A 在本地修改了變數,除去把本地變數所屬的 Cache Line 置為 Modified 狀態以外,
還必須在另一個處理器 B 讀同一個變數前,對該變數所在的 B 處理器本地 Cache Line 發起 Invaidate 操作,標記 B 處理器的那條 Cache Line 為 Invalidate 狀態。
隨後,若處理器 B 在對變數做讀寫操作時,如果遇到這個標記為 Invalidate 的狀態的 Cache Line,即會引發 Cache Miss,
從而將記憶體中最新的資料拷貝到 Cache Line 裡,然後處理器 B 再對此 Cache Line 對變數做讀寫操作。

本文中的 Cache Line 偽共享場景,就基於上述場景來講解,關於 Cache 一致性協議更多的細節,請參考相關文件。

2.7 Cache Line 偽共享

Cache Line 偽共享問題,就是由多個 CPU 上的多個執行緒同時修改自己的變數引發的。這些變數表面上是不同的變數,但是實際上卻儲存在同一條 Cache Line 裡。
在這種情況下,由於 Cache 一致性協議,兩個處理器都儲存有相同的 Cache Line 拷貝的前提下,本地 CPU 變數的修改會導致本地 Cache Line 變成 Modified 狀態,然後在其它共享此 Cache Line 的 CPU 上,
引發 Cache Line 的 Invaidate 操作,導致 Cache Line 變為 Invalidate 狀態,從而使 Cache Line 再次被訪問時,發生本地 Cache Miss,從而傷害到應用的效能。
在此場景下,多個執行緒在不同的 CPU 上高頻反覆訪問這種 Cache Line 偽共享的變數,則會因 Cache 顛簸引發嚴重的效能問題。

下圖即為兩個執行緒間的 Cache Line 偽共享問題的示意圖,

cache-line-false-sharing-5.png

3. Perf c2c 發現偽共享

當應用在 NUMA 環境中執行,或者應用是多執行緒的,又或者是多程式間有共享記憶體,滿足其中任意一條,那麼這個應用就可能因為 Cache Line 偽共享而效能下降。

但是,要怎樣才能知道一個應用是不是受偽共享所害呢?Joe Mario 提交的 patch 能夠解決這個問題。Joe 的 patch 是在 Linux 的著名的 perf 工具上,新增了一些新特性,叫做 c2c,
意思是“快取到快取” (cache-2-cache)。

Redhat 在很多 Linux 的大型應用上使用了 c2c 的原型,成功地發現了很多熱的偽共享的 Cache Line。
Joe 在部落格裡總結了一下 perf c2c 的主要功能:

  • 發現偽共享的 Cache Line
  • 誰在讀寫上述的 Cache Line,以及訪問發生處的 Cache Line 的內部偏移
  • 這些讀者和寫者分別的 pid, tid, 指令地址,函式名,二進位制檔案
  • 每個讀者和寫者的原始碼檔案,程式碼行號
  • 這些熱點 Cache Line 上的,load 操作的平均延遲
  • 這些 Cache Line 的樣本來自哪些 NUMA 節點, 由哪些 CPU 參與了讀寫

perf c2cperf 裡現有的工具比較類似:

  • 先用 perf c2c record 通過取樣,收集效能資料
  • 再用 perf c2c report 基於取樣資料,生成報告

如果想了解 perf c2c 的詳細使用,請訪問: PERF-C2C(1)

這裡還有一個完整的 perf c2c輸出的樣例

最後,還有一個小程式的原始碼,可以產生大量的 Cache Line 偽共享,用以測試體驗: Fasle sharing .c src file

3.1 perf c2c 的輸出

下面,讓我們就之前給出的 perf c2c 的輸出樣例,做一個詳細介紹。

輸出裡的第一個表,概括了 CPU 在 perf c2c 資料取樣期間做的 load 和 store 的樣本。能夠看到 load 操作都是在哪裡取到了資料。

perf c2c 輸出裡,HITM 意為 “Hit In The Modified”,代表 CPU 在 load 操作命中了一條標記為 Modified 狀態的 Cache Line。如前所述,偽共享發生的關鍵就在於此。

Remote HITM,意思是跨 NUMA 節點的 HITM,這個是所有 load 操作裡代價最高的情況,尤其在讀者和寫者非常多的情況下,這個代價會變得非常的高。

對應的,Local HITM,則是本地 NUMA 節點內的 HITM,下面是對 perf c2c 輸出的詳細註解:

 1  =================================================
 2              Trace Event Information
 3  =================================================
 4    Total records                     :     329219  >> 取樣到的 CPU load 和 store 的樣本總數
 5    Locked Load/Store Operations      :      14654
 6    Load Operations                   :      69679  >> CPU load 操作的樣本總數
 7    Loads - uncacheable               :          0
 8    Loads - IO                        :          0
 9    Loads - Miss                      :       3972
10    Loads - no mapping                :          0
11    Load Fill Buffer Hit              :      11958  >> Load 操作沒有命中 L1 Cache,但命中了 L1 Cache 的 Fill Buffer 的次數
12    Load L1D hit                      :      17235  >> Load 操作命中 L1 Dcache 的次數
13    Load L2D hit                      :         21  >> Load 操作命中 L2 Dcache 的次數
14    Load LLC hit                      :      14219  >> Load 操作命中最後一級 (LLC) Cache (通常 LLC 是 L3) 的次數
15    Load Local HITM                   :       3402  >> Load 操作命中了本地 NUMA 節點的修改過的 Cache 的次數
16    Load Remote HITM                  :      12757  >> Load 操作命中了遠端 NUMA 節點的修改過的 Cache 的次數
17    Load Remote HIT                   :       5295  >> Load 操作命中了遠端未修改的 Clean Cache 的次數
18    Load Local DRAM                   :        976  >> Load 操作命中了本地 NUMA 節點的記憶體的次數,其實這就是 Cache Miss
19    Load Remote DRAM                  :       3246  >> Load 操作命中了遠端 NUMA 節點的記憶體的次數,其實這是比 Load Local DRAM 更嚴重的 Cache Miss
20    Load MESI State Exclusive         :       4222  >> Load 操作命中 MESI 狀態中,處於 Exclusive 狀態的 Cache 的次數
21    Load MESI State Shared            :          0  >> Load 操作命中 MESI 狀態中,處於 Shared 狀態的 Cache 的次數
22    Load LLC Misses                   :      22274  >> Load 操作產生的本地 NUMA 節點 LLC Cache Miss 的次數,是 Load Remote HITM,Load Remote HIT,Load Local DRAM,Load Remote DRAM 之和
23    LLC Misses to Local DRAM          :        4.4% >> Load 操作產生的 LLC Cache Miss 中,從本地 NUMA 節點拿到記憶體的樣本佔 Load LLC Misses 總樣本的百分比
24    LLC Misses to Remote DRAM         :       14.6% >> Load 操作產生的 LLC Cache Miss 中,從遠端 NUMA 節點拿到記憶體的樣本佔 Load LLC Misses 總樣本的百分比
25    LLC Misses to Remote cache (HIT)  :       23.8% >> Load 操作產生的 LLC Cache Miss 中,從遠端 NUMA 節點拿到 Clean Cache 的樣本佔 Load LLC Misses 總樣本的百分比
26    LLC Misses to Remote cache (HITM) :       57.3% >> Load 操作產生的 LLC Cache Miss 中,從遠端 NUMA 節點拿到被修改過的 Cache 的樣本佔 Load LLC Misses 總樣本的百分比,這是代價最高的偽共享
27    Store Operations                  :     259539  >> CPU store 操作的樣本總數
28    Store - uncacheable               :          0
29    Store - no mapping                :         11
30    Store L1D Hit                     :     256696  >> Store 操作命中 L1 Dcache 的次數
31    Store L1D Miss                    :       2832  >> Store 操作命中 L1 Dcache Miss 的次數
32    No Page Map Rejects               :       2376
33    Unable to parse data source       :          1

perf c2c 輸出的第二個表, 以 Cache Line 維度,全域性展示了 CPU load 和 store 活動的情況。
這個表的每一行是一條 Cache Line 的資料,顯示了發生偽共享最熱的一些 Cache Line。預設按照發生 Remote HITM 的次數比例排序,改下引數也可以按照發生 Local HITM 的次數比例排序。

要檢查 Cache Line 偽共享問題,就在這個表裡找 Rmt LLC Load HITM(即跨 NUMA 節點快取裡取到資料的)次數比較高的,如果有,就得深挖一下。

54  =================================================
55             Shared Data Cache Line Table
56  =================================================
57  #
58  #                              Total      Rmt  ----- LLC Load Hitm -----  ---- Store Reference ----  --- Load Dram ----      LLC    Total  ----- Core Load Hit -----  -- LLC Load Hit --
59  # Index           Cacheline  records     Hitm    Total      Lcl      Rmt    Total    L1Hit   L1Miss       Lcl       Rmt  Ld Miss    Loads       FB       L1       L2       Llc       Rmt
60  # .....  ..................  .......  .......  .......  .......  .......  .......  .......  .......  ........  ........  .......  .......  .......  .......  .......  ........  ........
61  #
62        0            0x602180   149904   77.09%    12103     2269     9834   109504   109036      468       727      2657    13747    40400     5355    16154        0      2875       529
63        1            0x602100    12128   22.20%     3951     1119     2832        0        0        0        65       200     3749    12128     5096      108        0      2056       652
64        2  0xffff883ffb6a7e80      260    0.09%       15        3       12      161      161        0         1         1       15       99       25       50        0         6         1
65        3  0xffffffff81aec000      157    0.07%        9        0        9        1        0        1         0         7       20      156       50       59        0        27         4
66        4  0xffffffff81e3f540      179    0.06%        9        1        8      117       97       20         0        10       25       62       11        1        0        24         7

下面是共享 Cache Line 的 Pareto 百分比分佈表,命名取自帕累托法則 (Pareto principle),即 2/8 法則的喻義,顯示了每條內部產生競爭的 Cache Line 的百分比分佈的細目資訊。
這是最重要的一個表。為了精簡,這裡只展示了三條 Cache Line 相關的記錄,表格裡包含了這些資訊:

  • 其中 71,72 行是列名,每列都解釋了Cache Line的一些活動。
  • 標號為 76,85,91 的行顯示了每條 Cache Line 的 HITM 和 store 活動情況: 依次是 CPU load 和 store 活動的計數,以及 Cache Line 的虛擬地址。
  • 78 到 83 行,是針對 76 行 Cache Line 訪問的細目統計,具體格式如下:

    • 首先是百分比分佈,包含了 HITM 中 remote 和 local 的百分比,store 裡的 L1 Hit 和 Miss 的百分比分佈。注意,這些百分比縱列相加正好是 100%。
    • 然後是資料地址列。上面提到了 76 行顯示了 Cache Line 的虛擬地址,而下面幾行的這一列則是行內偏移。
    • 下一列顯示了pid,或執行緒id(如果設定了要輸出tid)。
    • 接下來是指令地址。
    • 接下來三列,展示了平均load操作的延遲。我常看著裡有沒有很高的平均延遲。這個平均延遲,可以反映該行的競爭緊張程度。
    • cpu cnt列展示了該行訪問的樣本採集自多少個cpu。
    • 然後是函式名,二進位制檔名,原始碼名,和程式碼行數。
    • 最後一列展示了對於每個節點,樣本分別來自於哪些cpu

以下為樣例輸出:

67  =================================================
68        Shared Cache Line Distribution Pareto      
69  =================================================
70  #
71  #        ----- HITM -----  -- Store Refs --        Data address                               ---------- cycles ----------       cpu                                     Shared                                   
72  #   Num      Rmt      Lcl   L1 Hit  L1 Miss              Offset      Pid        Code address  rmt hitm  lcl hitm      load       cnt               Symbol                Object                  Source:Line  Node{cpu list}
73  # .....  .......  .......  .......  .......  ..................  .......  ..................  ........  ........  ........  ........  ...................  ....................  ...........................  ....
74  #
75    -------------------------------------------------------------
76        0     9834     2269   109036      468            0x602180
77    -------------------------------------------------------------
78            65.51%   55.88%   75.20%    0.00%                 0x0    14604            0x400b4f     27161     26039     26017         9  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:144   0{0-1,4}  1{24-25,120}  2{48,54}  3{169}
79             0.41%    0.35%    0.00%    0.00%                 0x0    14604            0x400b56     18088     12601     26671         9  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:145   0{0-1,4}  1{24-25,120}  2{48,54}  3{169}
80             0.00%    0.00%   24.80%  100.00%                 0x0    14604            0x400b61         0         0         0         9  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:145   0{0-1,4}  1{24-25,120}  2{48,54}  3{169}
81             7.50%    9.92%    0.00%    0.00%                0x20    14604            0x400ba7      2470      1729      1897         2  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:154   1{122}  2{144}
82            17.61%   20.89%    0.00%    0.00%                0x28    14604            0x400bc1      2294      1575      1649         2  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:158   2{53}  3{170}
83             8.97%   12.96%    0.00%    0.00%                0x30    14604            0x400bdb      2325      1897      1828         2  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:162   0{96}  3{171}

84    -------------------------------------------------------------
85        1     2832     1119        0        0            0x602100
86    -------------------------------------------------------------
87            29.13%   36.19%    0.00%    0.00%                0x20    14604            0x400bb3      1964      1230      1788         2  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:155   1{122}  2{144}
88            43.68%   34.41%    0.00%    0.00%                0x28    14604            0x400bcd      2274      1566      1793         2  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:159   2{53}  3{170}
89            27.19%   29.40%    0.00%    0.00%                0x30    14604            0x400be7      2045      1247      2011         2  [.] read_write_func  no_false_sharing.exe  false_sharing_example.c:163   0{96}  3{171}

90    -------------------------------------------------------------
91        2       12        3      161        0  0xffff883ffb6a7e80
92    -------------------------------------------------------------
93            58.33%  100.00%    0.00%    0.00%                 0x0    14604  0xffffffff810cf16d      1380       941      1229         9  [k] task_tick_fair              [kernel.kallsyms]  atomic64_64.h:21   0{0,4,96}  1{25,120,122}  2{53}  3{170-171}
94            16.67%    0.00%   98.76%    0.00%                 0x0    14604  0xffffffff810c9379      1794         0       625        13  [k] update_cfs_rq_blocked_load  [kernel.kallsyms]  atomic64_64.h:45   0{1,4,96}  1{25,120,122}  2{48,53-54,144}  3{169-171}
95            16.67%    0.00%    0.00%    0.00%                 0x0    14604  0xffffffff810ce098      1382         0       867        12  [k] update_cfs_shares           [kernel.kallsyms]  atomic64_64.h:21   0{1,4,96}  1{25,120,122}  2{53-54,144}  3{169-171}
96             8.33%    0.00%    0.00%    0.00%                 0x8    14604  0xffffffff810cf18c      2560         0       679         8  [k] task_tick_fair              [kernel.kallsyms]  atomic.h:26        0{4,96}  1{24-25,120,122}  2{54}  3{170}
97             0.00%    0.00%    1.24%    0.00%                 0x8    14604  0xffffffff810cf14f         0         0         0         2  [k] task_tick_fair              [kernel.kallsyms]  atomic.h:50        2{48,53}

3.2 如何用 perf c2c

下面是常見的 perf c2c 使用的命令列:

# perf c2c record -F 60000 -a --all-user sleep 5
# perf c2c record -F 60000 -a --all-user sleep 3     // 取樣較短時間
# perf c2c record -F 60000 -a --all-kernel sleep 3   // 只取樣核心態樣本
# perf c2c record -F 60000 -a -u --ldlat 50 sleep 3  // 或者只採集 load 延遲大於 60 個(預設是 30 個)機器週期的樣本

熟悉 perf 的讀者可能已經注意到,這裡的 -F 選項指定了非常高的取樣頻率: 60000。請特別注意:這個取樣頻率不建議線上上或者生產環境使用,因為這會在高負載機器上帶來不可預知的影響。
此外 perf c2c 對 CPU load 和 store 操作的取樣會不可避免的影響到被取樣應用的效能,因此建議在研發測試環境使用 perf c2c 去優化應用。

對取樣資料的分析,可以使用帶圖形介面的 tui 來看輸出,或者只輸出到標準輸出

# perf report -NN -c pid,iaddr                 // 使用tui互動式介面
# perf report -NN -c pid,iaddr --stdio         // 或者輸出到標準輸出
# perf report -NN -d lcl -c pid,iaddr --stdio  // 或者按 local time 排序

預設情況,為了規範輸出格式,符號名被截斷為定長,但可以用 “–full-symbols” 引數來顯示完整符號名。

例如:

# perf c2c report -NN -c pid,iaddr --full-symbols --stdio

3.3 找到 Cache Line 訪問的呼叫棧

有的時候,很需要找到讀寫這些 Cache Line 的呼叫者是誰。下面是獲得呼叫圖資訊的方法。但一開始,一般不會一上來就用這個,因為輸出太多,難以定位偽共享。一般都是先找到問題,再回過頭來使用呼叫圖。

# perf c2c record --call-graph dwarf,8192 -F 60000 -a --all-user sleep 5
# perf c2c report -NN -g --call-graph -c pid,iaddr --stdio

3.4 如何增加取樣頻率

為了讓取樣資料更可靠,會把 perf 取樣頻率提升到 -F 60000 或者 -F 80000,而系統預設的取樣頻率是 1000。

提升取樣頻率,可以短時間獲得更豐富,更可靠的取樣集合。想提升取樣頻率,可以用下面的方法。
可以根據 dmesg 裡有沒有 perf interrupt took too long … 資訊來調整頻率。注意,如前所述,這有一定風險,嚴禁線上上或者生產環境使用

# echo    500 > /proc/sys/kernel/perf_cpu_time_max_percent
# echo 100000 > /proc/sys/kernel/perf_event_max_sample_rate

然後執行前面講的 perf c2c record 命令。之後再執行,

# echo     50 > /proc/sys/kernel/perf_cpu_time_max_percent

3.5 如何讓避免取樣資料過量

在大型系統上(比如有 4,8,16 個物理 CPU 插槽的系統)執行 perf c2c,可能會樣本太多,消耗大量的CPU時間,perf.data檔案也可能明顯變大。 對於這個問題,有以下建議(包含但不僅限於):

  • ldlat 從 30 增加大到 50。這使得 perf 跳過沒有效能問題的 load 操作。
  • 降低取樣頻率。
  • 縮短 perf record 的睡眠時間視窗。比如,從 sleep 5 改成 sleep 3

3.6 使用 c2c 優化應用的收穫

一般搭建看見效能工具的輸出,都會問這些資料意味著什麼。Joe 總結了他使用 c2c 優化應用時,學到的東西,

  • perf c2c 取樣時間不宜過長。Joe 建議執行 perf c2c 3 秒、5 秒或 10 秒。執行更久,觀測到的可能就不是併發的偽共享,而是時間錯開的 Cache Line 訪問。
  • 如果對核心樣本沒有興趣,只想看使用者態的樣本,可以指定 --all-user。反之使用 --all-kernel
  • CPU 很多的系統上(如 >148 個),設定 -ldlat 為一個較大的值(50 甚至 70),perf 可能能產生更豐富的C2C樣本。
  • 讀最上面那個具有概括性的 Trace Event 表,尤其是 LLC Misses to Remote cache HITM 的數字。只要不是接近 0,就可能有值得追究的偽共享。
  • Pareto 表時,需要關注的,多半隻是最熱的兩三個 Cache Line。
  • 有的時候,一段程式碼,它不在某一行 Cache Line 上競爭嚴重,但是它卻在很多 Cache Line 上競爭,這樣的程式碼段也是很值得優化的。同理還有多程式程式訪問共享記憶體時的情況。
  • Pareto 表裡,如果發現很長的 load 操作平均延遲,常常就表明存在嚴重的偽共享,影響了效能。
  • 接下來去看樣本取樣自哪些節點和 CPU,據此進行優化,將哪些記憶體或 Task 進行 NUMA 節點鎖存。

最後,Pareto 表還能對怎麼解決對齊得很不好的Cache Line,提供靈感。 例如:

  • 很容易定位到:寫地很頻繁的變數,這些變數應該在自己獨立的 Cache Line。可以據此進行對齊調整,讓他們不那麼競爭,執行更快,也能讓其它的共享了該 Cache Line 的變數不被拖慢。
  • 很容易定位到:沒有 Cache Line 對齊的,跨越了多個 Cache Line 的熱的 Lock 或 Mutex。
  • 很容易定位到:讀多寫少的變數,可以將這些變數組合到相同或相鄰的 Cache Line。

3.7 使用原始的取樣資料

有時直接去看用 perf c2c record 命令生成的 perf.data 檔案,其中原始的取樣資料也是有用的。
可以用 perf script 命令得到原始樣本,man perf-script 可以檢視這個命令的手冊。輸出可能是編碼過的,但你可以按 load weight 排序(第 5 列),看看哪個 load 樣本受偽共享影響最嚴重,有最大的延遲。

4 致謝

最後,在文章末尾,Joe 給出瞭如下總結,並在部落格中致謝了所有的貢獻者:

Linux perf c2c 功能在上游的 4.2 核心已經可用了。這是集體努力的結果。


相關文章