一、問題
近期我們運維同事接到線上LB(負載均衡)服務記憶體報警,運維同事反饋說LB叢集有部分機器的記憶體使用率超過80%,有的甚至超過90%,而且記憶體使用率還再不停的增長。接到記憶體報警的訊息,讓整個團隊都比較緊張,我們團隊負責的LB服務是零售、物流、科技等業務服務的流量入口,承接上萬個服務的流量轉發,一旦有故障影響業務服務比較多,必須馬上著手解決記憶體暴漲的問題。目前只是記憶體報警,暫時不影響業務,先將記憶體使用率90%以上的LB服務下線,防止記憶體過高導致LB服務崩潰,影響業務,運維同事密切關注相關的記憶體報警的訊息。
二、排查過程
經過開發同學透過cat /proc/meminfo檢視Slab的核心記憶體可能有洩漏。
$ cat /proc/meminfo
MemTotal: 65922868 kB
MemFree: 9001452 kB
...
Slab: 39242216 kB
SReclaimable: 38506072 kB
SUnreclaim: 736144 kB
....
透過slabtop命令分析slab發現核心中dentry物件佔比高,考慮到dentry物件跟檔案有關,Linux中一切皆可以為檔案,這個可能跟socket檔案有關,透過進一步排查發現LB服務上有個curl傳送的HTTPS探測指令碼,這個指令碼存在dentry物件洩漏,並且在curl論壇上找到一篇文章確認了這個問題,這個文章說明了curl-7.19.7版本在傳送HTTPS請求時,curl依賴的NSS庫存在dentry洩漏的bug,我檢視一下我們curl版本就是7.19.7,問題終於真相大白了!!!
$ curl -V
curl 7.19.7 (x86_64-redhat-linux-gnu) libcurl/7.19.7 NSS/3.15.3 zlib/1.2.3 libidn/1.18 libssh2/1.4.2
Protocols: tftp ftp telnet dict ldap ldaps http file https ftps scp sftp
Features: GSS-Negotiate IDN IPv6 Largefile NTLM SSL libz
$ rpm -aq|grep nss-
nss-util-3.16.1-3.el6.x86_64
nss-sysinit-3.16.1-14.el6.x86_64
nss-softokn-freebl-3.14.3-17.el6.x86_64
nss-softokn-3.14.3-17.el6.x86_64
nss-3.16.1-14.el6.x86_64
nss-tools-3.16.1-14.el6.x86_64
文章中介紹可以設定環境變數NSS_SDB_USE_CACHE修復這個bug,我們驗證透過了這個解決方案。
三、解決方案
1、目前先將探測指令碼停止,在業務流量低峰時將記憶體使用率超過90%的服務先透過drop_caches清理一下快取。
2、等大促過後,探測指令碼中設定環境變數NSS_SDB_USE_CACHE,徹底修復這個問題。
四、覆盤和總結
這次記憶體暴漲的問題根本原因是curl-7.19.7依賴的NSS庫存在dentry洩漏的bug導致的,探測指令碼只是將這個問題暴露出來。這次問題由Linux記憶體洩漏引發的問題,因此以點帶面再次系統學習一下Linux記憶體管理的知識非常有必要,對我們以後排查記憶體暴漲的問題非常有幫助。
1)Linux記憶體定址
Linux核心主要透過虛擬記憶體管理程序的地址空間,核心程序和使用者程序都只會分配虛擬記憶體,不會分配實體記憶體,透過記憶體定址將虛擬記憶體與實體記憶體做對映。Linux核心中有三種地址,
a、邏輯地址,每個邏輯地址都由一段(segment)和偏移量(offset)組成,偏移量指明瞭從段開始的地方到實際地址之間的距離。
b、線性地址,又稱虛擬地址,是一個32個無符號整數,32位機器記憶體高達4GB,通常用十六進位制數字表示,Linux程序的記憶體一般說的都是這個記憶體。
c、實體地址,用於記憶體晶片級記憶體單元定址。它們與從CPU的地址引腳傳送到記憶體匯流排上的電訊號對應。
Linux中的記憶體控制單元(MMU)透過一種稱為分段單元(segmentation unit)的硬體電路把一個邏輯地址轉換成線性地址,接著,第二個稱為分頁單元(paging unit)的硬體電路把線性地址轉換成一個實體地址。
2)Linux分頁機制
分頁單元把線性地址轉換成實體地址。線性地址被分成以固定長度為單位的組,稱為頁(page)。頁內部連續的線性地址被對映到連續的實體地址中。一般"頁"既指一組線性地址,又指包含這組地址中的資料。分頁單元把所有的RAM分成固定長度的頁框(page frame),也成物理頁。每一頁框包含一個頁(page),也就是說一個頁框的長度與一個頁的長度一致。頁框是主存的一部分,因此也是一個儲存區域。區分一頁和一個頁框是很重要的,前者只是一個資料塊,可以存放任何頁框或者磁碟中。把線性地址對映到實體地址的資料結構稱為頁表(page table)。頁表存放在主存中,並在啟用分頁單元之前必須有核心對頁表進行適當的初始化。
x86_64的Linux核心採用4級分頁模型,一般一頁4K,4種頁表:
a、頁全域性目錄
b、頁上級目錄
c、頁中間目錄
d、頁表
頁全域性目錄包含若干頁上級目錄,頁上級目錄又依次包含若干頁中間目錄的地址,而頁中間目錄又包含若干頁表的地址。每個頁表項指向一個頁框。線性地址被分成5部分。
3)NUMA架構
隨著CPU進入多核時代,多核CPU透過一條資料匯流排訪問記憶體延遲很大,因此NUMA架構應運而生,NUMA架構全稱為非一致性記憶體架構 (Non Uniform Memory Architecture),系統的實體記憶體被劃分為幾個節點(node),每個node繫結不同的CPU核,本地CPU核直接訪問本地記憶體node節點延遲最小。
可以透過lscpu命令檢視NUMA與CPU核的關係。
$ lscpu
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 32
On-line CPU(s) list: 0-31
Thread(s) per core: 2
Core(s) per socket: 8
Socket(s): 2
NUMA node(s): 2
Vendor ID: GenuineIntel
CPU family: 6
Model: 62
Stepping: 4
CPU MHz: 2001.000
BogoMIPS: 3999.43
Virtualization: VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache: 256K
L3 cache: 20480K
NUMA node0 CPU(s): 0-7,16-23 #這些核繫結在numa 0
NUMA node1 CPU(s): 8-15,24-31 #這些核繫結在numa 1
4)夥伴關係演算法
Linux核心透過著名夥伴關係演算法為分配一組連續的頁框而建立一種健壯、穩定的記憶體分配策略,是核心中一種記憶體分配器,並解決了記憶體管理外碎片的問題,外碎片是指頻繁地請求和釋放不同大小的一組連續頁框,必然導致在已分配的頁框的塊分散了許多小塊的空閒頁框。
5)Slab機制
slab機制的核心思想是以物件的觀點來管理記憶體,主要是為了解決內部碎片,內部碎片是由於採用固定大小的記憶體分割槽,即以固定的大小塊為單位來分配,採用這種方法,程序所分配的記憶體可能會比所需要的大,這多餘的部分便是內部碎片。slab也是核心中一種記憶體分配器,slab分配器基於物件進行管理的,所謂的物件就是核心中的資料結構(例如:task_struct,file_struct 等)。相同型別的物件歸為一類,每當要申請這樣一個物件時,slab分配器就從一個slab列表中分配一個這樣大小的單元出去,而當要釋放時,將其重新儲存在該列表中,而不是直接返回給夥伴系統,從而避免內部碎片。上面中說到的dentry物件就是透過slab分配器分配的一種物件。
slab和夥伴系統是上下級的呼叫關係,夥伴關係按照頁管理記憶體,slab按照位元組管理,slab先從夥伴系統獲取數個頁的記憶體,然後切成分成固定的小塊(稱為object),然後再按照宣告的物件資料結構分配物件。
6)程序記憶體分佈
所有程序都必須佔用一定數量的記憶體,這些記憶體用來存放從磁碟載入的程式程式碼,或存放來自使用者輸入的資料等。記憶體可以提前靜態分配和統一回收,也可以按需動態分配和回收。對於普通程序對應的記憶體空間包含5種不同的資料區:
a、程式碼段(text):程式程式碼在記憶體中的對映,存放函式體的二進位制程式碼,通常用於存放程式執行程式碼(即CPU執行的機器指令)。
b、資料段(data):存放程式中已初始化且初值不為0的全域性變數和靜態區域性變數。資料段屬於靜態記憶體分配(靜態儲存區),可讀可寫。
c、BSS段(bss):未初始化的全域性變數和靜態區域性變數。
d、堆(heap):動態分配的記憶體段,大小不固定,可動態擴張(malloc等函式分配記憶體),或動態縮減(free等函式釋放)。
e、棧(stack):存放臨時建立的區域性變數。
Linux核心是作業系統中優先順序最高的,核心函式申請記憶體必須及時分配適當的記憶體,使用者態程序申請記憶體被認為是不緊迫的,核心儘量推遲給使用者態的程序動態分配記憶體。
a、請求調頁,推遲到程序要訪問的頁不在RAM中時為止,引發一個缺頁異常。
b、寫時複製(COW),父、子程序共享頁框而不是複製頁框,但是共享頁框不能被修改,只有當父/子程序試圖改寫共享頁框時,核心才將共享頁框複製一個新的頁框並標記為可寫。
7)Linux記憶體檢測工具
a、free命令可以監控系統記憶體
$ free -h
total used free shared buff/cache available
Mem: 31Gi 13Gi 8.0Gi 747Mi 10Gi 16Gi
Swap: 2.0Gi 321Mi 1.7Gi
b、top命令檢視系統記憶體以及程序記憶體
VIRT
Virtual Memory Size (KiB):程序使用的所有虛擬記憶體,包括程式碼(code)、資料(data)、共享庫(shared libraries),以及被換出(swap out)到交換區和對映了(map)但尚未使用(未載入實體記憶體)的部分。RES
Resident Memory Size (KiB):程序所佔用的所有實體記憶體(physical memory),不包括被換出到交換區的部分。SHR
Shared Memory Size (KiB):程序可讀的全部共享記憶體,並非所有部分都包含在 RES
中。它反映了可能被其他程序共享的記憶體部分。c、smaps檔案
cat /proc/$pid/smaps檢視某程序虛擬記憶體空間的分佈情況
0082f000-00852000 rw-p 0022f000 08:05 4326085 /usr/bin/nginx/sbin/nginx
Size: 140 kB
Rss: 140 kB
Pss: 78 kB
Shared_Clean: 56 kB
Shared_Dirty: 68 kB
Private_Clean: 4 kB
Private_Dirty: 12 kB
Referenced: 120 kB
Anonymous: 80 kB
AnonHugePages: 0 kB
Swap: 0 kB
KernelPageSize: 4 kB
MMUPageSize: 4 kB
d、vmstat
vmstat是Virtual Meomory Statistics(虛擬記憶體統計)的縮寫,可實時動態監視作業系統的虛擬記憶體、程序、CPU活動。
## 每秒統計3次
$ vmstat 1 3
procs -----------memory---------------- ---swap-- -----io---- --system-- -----cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 233483840 758304 20795596 0 0 0 1 0 0 0 0 100 0 0
0 0 0 233483936 758304 20795596 0 0 0 0 1052 1569 0 0 100 0 0
0 0 0 233483920 758304 20795596 0 0 0 0 966 1558 0 0 100 0 0
e、meminfo檔案
Linux系統中/proc/meminfo這個檔案用來記錄了系統記憶體使用的詳細情況。
$ cat /proc/meminfo
MemTotal: 8052444 kB
MemFree: 2754588 kB
MemAvailable: 3934252 kB
Buffers: 137128 kB
Cached: 1948128 kB
SwapCached: 0 kB
Active: 3650920 kB
Inactive: 1343420 kB
Active(anon): 2913304 kB
Inactive(anon): 727808 kB
Active(file): 737616 kB
Inactive(file): 615612 kB
Unevictable: 196 kB
Mlocked: 196 kB
SwapTotal: 8265724 kB
SwapFree: 8265724 kB
Dirty: 104 kB
Writeback: 0 kB
AnonPages: 2909332 kB
Mapped: 815524 kB
Shmem: 732032 kB
Slab: 153096 kB
SReclaimable: 99684 kB
SUnreclaim: 53412 kB
KernelStack: 14288 kB
PageTables: 62192 kB
NFS_Unstable: 0 kB
Bounce: 0 kB
WritebackTmp: 0 kB
CommitLimit: 12291944 kB
Committed_AS: 11398920 kB
VmallocTotal: 34359738367 kB
VmallocUsed: 0 kB
VmallocChunk: 0 kB
HardwareCorrupted: 0 kB
AnonHugePages: 1380352 kB
CmaTotal: 0 kB
CmaFree: 0 kB
HugePages_Total: 0
HugePages_Free: 0
HugePages_Rsvd: 0
HugePages_Surp: 0
Hugepagesize: 2048 kB
DirectMap4k: 201472 kB
DirectMap2M: 5967872 kB
DirectMap1G: 3145728 kB
總結部分中一些內容來源於《深入理解Linux核心》,一些內容根據個人理解寫出的,有不對地方歡迎指正,部分圖片來源於網路