Linux程序排程器-CPU負載

yooooooo發表於2024-10-29

1. 概述

CPU負載(cpu load)指的是某個時間點程序對系統產生的壓力。來張圖來類比下(參考Understanding Linux CPU Load)

  • CPU的執行能力,就如大橋的通行能力,分別有滿負荷,非滿負荷,超負荷等狀態,這幾種狀態對應不同的cpu load值;
  • 單CPU滿負荷執行時cpu_load為1,當多個CPU或多核時,相當於大橋有多個車道,滿負荷執行時cpu_load值為CPU數或多核數;
  • CPU負載的計算(以單CPU為例),假設一分鐘內執行10個任務代表滿負荷,當一分鐘給出30個任務時,CPU只能處理10個,剩餘20個不能處理,cpu_load=3;

在實際系統中檢視:

  • cat /proc/cpuinfo:檢視CPU資訊;
  • cat /proc/loadavg:檢視cpu最近1/5/15分鐘的平均負載:

計算CPU負載,可以讓排程器更好的進行負載均衡處理,以便提高系統的執行效率。此外,核心中的其他子系統也可以參考這些CPU負載值來進行相應的調整,比如DVFS等。

目前核心中,有以下幾種方式來跟蹤CPU負載:

  1. 全域性CPU平均負載;
  2. 執行佇列CPU負載;
  3. PELT(per entity load tracking);

這也是本文需要探討的內容,開始吧。

2. 全域性CPU平均負載

2.1 基礎概念

先來明確兩個與CPU負載計算相關的概念:

  1. active task(活動任務):只有知道活動任務數量,才能計算CPU負載,而活動任務包括了TASK_RUNNINGTASK_UNINTERRUPTIBLE兩類任務。包含TASK_UNINTERRUPTIBLE任務的原因是,這類任務經常是在等待I/O請求,將其包含在內也合理;
  2. NO_HZ:我們都知道Linux核心每隔固定時間發出timer interrupt,而HZ是用來定義1秒中的timer interrupts次數,HZ的倒數是tick,是系統的節拍器,每個tick會處理包括排程器、時間管理、定時器等事務。週期性的時鐘中斷帶來的問題是,不管CPU空閒或繁忙都會觸發,會帶來額外的系統損耗,因此引入了NO_HZ模式,可以在CPU空閒時將週期性時鐘關掉。在NO_HZ期間,活動任務數量的改變也需要考慮,而它的計算不如週期性時鐘模式下直觀。

2.2 流程

Linux核心中定義了三個全域性變數值avenrun[3],用於存放最近1/5/15分鐘的平均CPU負載。

看一下計算流程:

  • 計算活動任務數,這個包括兩部分:1)週期性排程中新增加的活動任務;2)在NO_HZ期間增加的活動任務數;

  • 根據活動任務數值,再結合全域性變數值avenrun[]中的old value,來計算新的CPU負載值,並最終替換掉avenrun[]中的值;

  • 系統預設每隔5秒鐘會計算一次負載,如果由於NO_HZ空閒而錯過了下一個CPU負載的計算週期,則需要再次進行更新。比如NO_HZ空閒20秒而無法更新CPU負載,前5秒負載已經更新,需要計算剩餘的3個計算週期的負載來繼續更新;

2.3 計算方法

Linux核心中,採用11位精度的定點化計算,CPU負載1.0由整數2048表示,宏定義如下:

#define FSHIFT          11		        /* nr of bits of precision */
#define FIXED_1         (1<<FSHIFT)	    /* 1.0 as fixed-point */
#define LOAD_FREQ       (5*HZ+1)	    /* 5 sec intervals */
#define EXP_1           1884		    /* 1/exp(5sec/1min) as fixed-point */
#define EXP_5           2014		    /* 1/exp(5sec/5min) */
#define EXP_15          2037		    /* 1/exp(5sec/15min) */

計算公式如下:

  • load值為舊的CPU負載值avenrun[],整個計算完成後得到新的負載值,再更新avenrun[]
  • EXP_1/EXP_5/EXP_15,分別代表最近1/5/15分鐘的定點化值的指數因子;
  • active值,根據讀取calc_load_tasks的值來判斷,大於0則乘以FIXED_1(2048)傳入;
  • 根據activeload值的大小關係來決定是否需要加1,類似於四捨五入的機制;

關鍵程式碼如下:

	active = atomic_long_read(&calc_load_tasks);
	active = active > 0 ? active * FIXED_1 : 0;

	avenrun[0] = calc_load(avenrun[0], EXP_1, active);
	avenrun[1] = calc_load(avenrun[1], EXP_5, active);
	avenrun[2] = calc_load(avenrun[2], EXP_15, active);
  • NO_HZ模式下活動任務數量更改的計算 由於NO_HZ空閒效應而更改的CPU活動任務數量,存放在全域性變數calc_load_nohz[2]中,並且每5秒計算週期交替更換一次儲存位置(calc_load_read_idx/calc_load_write_idx),其他程式可以去讀取最近5秒內的活動任務變化的增量值。

    計算示例 假設在某個CPU上,開始計算時load=0.5,根據calc_load_tasks值獲取不同的active,中間進入NO_HZ模式空閒了20秒,整個計算的值如下圖:

3. 執行佇列CPU負載

  • Linux系統會計算每個tick的平均CPU負載,並將其儲存在執行佇列中rq->cpu_load[5],用於負載均衡;

下圖顯示了計算執行佇列的CPU負載的處理流程:

img

最終透過cpu_load_update來計算,邏輯如下:

img

  • 其中傳入的this_load值,為執行佇列現有的平均負載值。

上圖中的衰減因子,是在NO_HZ模式下去進行計算的。在沒有使用tick時,從預先計算的表中計算負載值。Linux核心中定義了兩個全域性變數:

#define DEGRADE_SHIFT		7

static const u8 degrade_zero_ticks[CPU_LOAD_IDX_MAX] = {0, 8, 32, 64, 128};
static const u8 degrade_factor[CPU_LOAD_IDX_MAX][DEGRADE_SHIFT + 1] = {
	{   0,   0,  0,  0,  0,  0, 0, 0 },
	{  64,  32,  8,  0,  0,  0, 0, 0 },
	{  96,  72, 40, 12,  1,  0, 0, 0 },
	{ 112,  98, 75, 43, 15,  1, 0, 0 },
	{ 120, 112, 98, 76, 45, 16, 2, 0 }
};

衰減因子的計算主要是在delay_load_missed()函式中完成,該函式會返回load * 衰減因子的值,作為上圖中的old_load。計算方式如下:

img

4. PELT

PELT, Per-entity load tracking。在Linux引入PELT之前,CFS排程器在計算CPU負載時,透過跟蹤每個執行佇列上的負載來計算;在引入PELT之後,透過跟蹤每個排程實體的負載貢獻來計算。(其中,排程實體:指task或task_group

4.1 PELT計算方法

總體的計算思路:將排程實體的可執行狀態時間(正在執行+等待CPU排程執行),按1024us劃分成不同的週期,計算每個週期內該排程實體對系統負載的貢獻,最後完成累加。其中,每個計算週期,隨著時間的推移,需要乘以衰減因子y進行一次衰減操作。

先來看一下每個排程實體的負載貢獻計算公式:

img

  • 當前時間點的負載貢獻 = 當前時間點負載 + 上個週期負載貢獻 * 衰減因子;
  • 假設一個排程實體被排程執行,執行時間段可以分成三個段d1/d2/d3,這三個段是被1024us的計算週期分割而成,period_contrib是排程實體last_update_time時在計算週期間的貢獻值,;
  • 總體的貢獻值,也是根據d1/d2/d3來分段計算,最終相加即可;
  • y為衰減因子,每隔1024us就乘以y來衰減一次;

計算的呼叫流程如下圖:

img

  • 函式主要是計算時間差,再分成d1/d2/d3來分段計算處理,最終更新相應的欄位;
  • decay_load函式要計算val * y^n,核心提供了一張表來避免浮點運算,值儲存在runnable_avg_yN_inv陣列中;
static const u32 runnable_avg_yN_inv[] = {
	0xffffffff, 0xfa83b2da, 0xf5257d14, 0xefe4b99a, 0xeac0c6e6, 0xe5b906e6,
	0xe0ccdeeb, 0xdbfbb796, 0xd744fcc9, 0xd2a81d91, 0xce248c14, 0xc9b9bd85,
	0xc5672a10, 0xc12c4cc9, 0xbd08a39e, 0xb8fbaf46, 0xb504f333, 0xb123f581,
	0xad583ee9, 0xa9a15ab4, 0xa5fed6a9, 0xa2704302, 0x9ef5325f, 0x9b8d39b9,
	0x9837f050, 0x94f4efa8, 0x91c3d373, 0x8ea4398a, 0x8b95c1e3, 0x88980e80,
	0x85aac367, 0x82cd8698,
};

Linux中使用struct sched_avg來記錄排程實體和CFS執行佇列的負載資訊,因此struct sched_entitystruct cfs_rq結構體中,都包含了struct sched_avg,欄位介紹如下:

struct sched_avg {
	u64				last_update_time;    //上一次負載更新的時間,主要用於計算時間差;
	u64				load_sum;            //可執行時間帶來的負載貢獻總和,包括等待排程時間和正在執行時間;
	u32				util_sum;            //正在執行時間帶來的負載貢獻總和;
	u32				period_contrib;     //上一次負載更新時,對1024求餘的值;
	unsigned long	load_avg;           //可執行時間的平均負載貢獻;
	unsigned long	util_avg;           //正在執行時間的平均負載貢獻;
};

4.2 PELT計算呼叫

PELT計算的發生時機如下圖所示:

img

  • 排程實體的相關操作,包括入列出列操作,都會進行負載貢獻的計算;

PELT的演算法還在持續的改進中,各個核心版本也存在差異,大體的思路已經在上文中介紹到了,細節就不再深入分析了。

相關文章