OpenMP For Construct dynamic 排程方式實現原理和原始碼分析

一無是處的研究僧發表於2023-02-03

OpenMP For Construct dynamic 排程方式實現原理和原始碼分析

前言

在本篇文章當中主要給大家介紹 OpenMp for construct 的實現原理,以及與他相關的動態庫函式分析,與 for construct 非常相關的是迴圈的排程方式,在 OpenMP 當中一共有四種調調方式,auto, dynamic, guided, runtime, 在本篇文章當中主要是對 dynamic 的排程方式進行分析。

前置知識

在介紹 for construct 的實現原理之前,我們首先需要了解一下編譯器是如何處理函式引數傳遞的(本文基於 x86_64 ISA),我們來看一下下面的程式碼在編譯之後函式引數的傳遞情況。

在前面的文章當中我們已經談到過了,在 x86 當中引數傳遞的規約,具體的內容如下所示:

暫存器 含義
rdi 第一個引數
rsi 第二個引數
rdx 第三個引數
rcx 第四個引數
r8 第五個引數
r9 第六個引數

我們現在使用下面的程式碼來分析一下具體的情況(因為前面使用暫存器只能夠傳遞 6 個引數,而在後面我們要分析的動態庫函式當中會傳遞 7 個引數,因此這裡我們使用 8 個引數來測試一下具體的引數傳遞情況):

#include "stdio.h"

void echo(int a1, int a2, int a3, int a4, int a5, int a6, int a7, int a8)
{
  printf("%d %d %d %d %d %d %d %d\n", a8, a7, a1, a2, a3, a4, a5, a6);
}

int main()
{
  echo(1, 2, 3, 4 ,5 ,6, 7, 8);
  return 0;
}

上面的程式的反彙編結果如下所示:

000000000040053d <echo>:
  40053d:       55                      push   %rbp
  40053e:       48 89 e5                mov    %rsp,%rbp
  400541:       48 83 ec 30             sub    $0x30,%rsp
  400545:       89 7d fc                mov    %edi,-0x4(%rbp)
  400548:       89 75 f8                mov    %esi,-0x8(%rbp)
  40054b:       89 55 f4                mov    %edx,-0xc(%rbp)
  40054e:       89 4d f0                mov    %ecx,-0x10(%rbp)
  400551:       44 89 45 ec             mov    %r8d,-0x14(%rbp)
  400555:       44 89 4d e8             mov    %r9d,-0x18(%rbp)
  400559:       8b 7d f4                mov    -0xc(%rbp),%edi
  40055c:       8b 75 f8                mov    -0x8(%rbp),%esi
  40055f:       8b 55 fc                mov    -0x4(%rbp),%edx
  400562:       8b 45 18                mov    0x18(%rbp),%eax # a8
  400565:       8b 4d e8                mov    -0x18(%rbp),%ecx
  400568:       89 4c 24 10             mov    %ecx,0x10(%rsp)
  40056c:       8b 4d ec                mov    -0x14(%rbp),%ecx
  40056f:       89 4c 24 08             mov    %ecx,0x8(%rsp)
  400573:       8b 4d f0                mov    -0x10(%rbp),%ecx
  400576:       89 0c 24                mov    %ecx,(%rsp)
  400579:       41 89 f9                mov    %edi,%r9d
  40057c:       41 89 f0                mov    %esi,%r8d
  40057f:       89 d1                   mov    %edx,%ecx
  400581:       8b 55 10                mov    0x10(%rbp),%edx # a7
  400584:       89 c6                   mov    %eax,%esi # a8
  400586:       bf 64 06 40 00          mov    $0x400664,%edi
  40058b:       b8 00 00 00 00          mov    $0x0,%eax
  400590:       e8 8b fe ff ff          callq  400420 <printf@plt>
  400595:       c9                      leaveq 

0000000000400597 <main>:
  400597:       55                      push   %rbp
  400598:       48 89 e5                mov    %rsp,%rbp
  40059b:       48 83 ec 10             sub    $0x10,%rsp
  40059f:       c7 44 24 08 08 00 00    movl   $0x8,0x8(%rsp) # 儲存引數 8 
  4005a6:       00 
  4005a7:       c7 04 24 07 00 00 00    movl   $0x7,(%rsp) # 儲存引數 7 
  4005ae:       41 b9 06 00 00 00       mov    $0x6,%r9d # 儲存引數 6 
  4005b4:       41 b8 05 00 00 00       mov    $0x5,%r8d # 儲存引數 5 
  4005ba:       b9 04 00 00 00          mov    $0x4,%ecx # 儲存引數 4 
  4005bf:       ba 03 00 00 00          mov    $0x3,%edx # 儲存引數 3 
  4005c4:       be 02 00 00 00          mov    $0x2,%esi # 儲存引數 2 
  4005c9:       bf 01 00 00 00          mov    $0x1,%edi # 儲存引數 1
  4005ce:       e8 6a ff ff ff          callq  40053d <echo>
  4005d3:       b8 00 00 00 00          mov    $0x0,%eax
  4005d8:       c9                      leaveq 
  4005d9:       c3                      retq   
  4005da:       66 0f 1f 44 00 00       nopw   0x0(%rax,%rax,1)

從上面的彙編程式我們可以知道 1 - 6,這幾個引數確實是透過暫存器傳遞的,對應的暫存器就是上文當中我們提到不同的引數對應的暫存器。但是引數 7 和引數 8 是儲存在棧上的。根據上面的 main 函式的彙編程式分析,他對應的棧幀的記憶體佈局如下所示:

我們在來分析一下 echo 函式當中 printf 函式引數的傳遞情況,第二個引數和第三個引數分別是 a8, a7,應該分別儲存到暫存器 rsi/esi, rdx/edx 當中,在上面的彙編程式碼當中已經使用註釋的方式進行標註出來了,從下往上進行分析可以看到 a8 儲存在位置 0x18(%rbp),a7 儲存在 0x10(%rbp),這個地址正是 main 函式儲存 a7(當進入函式 echo 之後,a7,和 a8 的位置分別是 rsp + 0x10), a8(當進入函式 echo 之後,a7,和 a8 的位置分別是 rsp + 0x10 + 0x8) 的位置,具體可以結合上面的記憶體佈局圖進行分析。

dynamic 排程方式分析

我們使用下面的程式碼來分析一下動態排程的情況下整個程式的執行流程是怎麼樣的:

#pragma omp parallel for num_threads(t) schedule(dynamic, size)
for (i = lb; i <= ub; i++)
  body;

編譯器會將上面的程式編譯成下面的形式:

void subfunction (void *data)
{
  long _s0, _e0;
  while (GOMP_loop_dynamic_next (&_s0, &_e0))
  {
    long _e1 = _e0, i;
    for (i = _s0; i < _e1; i++)
      body;
  }
  // GOMP_loop_end_nowait 這個函式的主要作用就是釋放資料的記憶體空間 在後文當中不進行分析
  GOMP_loop_end_nowait ();
}

GOMP_parallel_loop_dynamic_start (subfunction, NULL, t, lb, ub+1, 1, size);
subfunction (NULL);
// 這個函式在前面的很多文章已經分析過 本文也不在進行分析
GOMP_parallel_end ();
void
GOMP_parallel_loop_dynamic_start (void (*fn) (void *), void *data,
				  unsigned num_threads, long start, long end,
				  long incr, long chunk_size)
{
  gomp_parallel_loop_start (fn, data, num_threads, start, end, incr,
			    GFS_DYNAMIC, chunk_size);
}

static void
gomp_parallel_loop_start (void (*fn) (void *), void *data,
			  unsigned num_threads, long start, long end,
			  long incr, enum gomp_schedule_type sched,
			  long chunk_size)
{
  struct gomp_team *team;
  // 解析具體建立多少個執行緒
  num_threads = gomp_resolve_num_threads (num_threads, 0);
  // 建立一個含有 num_threads 個執行緒的執行緒組
  team = gomp_new_team (num_threads);
  // 對執行緒組的資料進行初始化操作
  gomp_loop_init (&team->work_shares[0], start, end, incr, sched, chunk_size);
  // 啟動 num_threads 個執行緒執行函式 fn 
  gomp_team_start (fn, data, num_threads, team);
}

enum gomp_schedule_type
{
  GFS_RUNTIME, // runtime 排程方式
  GFS_STATIC,	 // static  排程方式
  GFS_DYNAMIC, // dynamic 排程方式
  GFS_GUIDED,	 // guided  排程方式
  GFS_AUTO     // auto    排程方式
};

在上面的程式當中 GOMP_parallel_loop_dynamic_start,有 7 個引數,我們接下來仔細解釋一下這七個引數的含義:

  • fn,函式指標也就是並行域被編譯之後的函式。
  • data,指向共享或者私有的資料,在並行域當中可能會使用外部的一些變數。
  • num_threads,並行域當中指定啟動執行緒的個數。
  • start,for 迴圈迭代的初始值,比如 for(int i = 0; ? 這個 start 就是 0 。
  • end,for 迴圈迭代的最終值,比如 for(int i = 0; i < 100; i++) 這個 end 就是 100 。
  • incr,這個值一般都是 1 或者 -1,如果是 for 迴圈是從小到達迭代這個值就是 1,反之就是 -1。
  • chunk_size,這個就是給一個執行緒劃分塊的時候一個塊的大小,比如 schedule(dynamic, 1),這個 chunk_size 就等於 1 。

在函式 GOMP_parallel_loop_dynamic_start 當中會呼叫函式 gomp_parallel_loop_start ,這個函式的主要作用就是將整個迴圈的起始位置資訊儲存到執行緒組內部,那麼就能夠在函式 GOMP_loop_dynamic_next 當中直接使用這些資訊進行不同執行緒的分塊劃分。GOMP_loop_dynamic_next 最終會呼叫函式 gomp_loop_dynamic_next ,其原始碼如下所示:

static bool
gomp_loop_dynamic_next (long *istart, long *iend)
{
  bool ret;
  ret = gomp_iter_dynamic_next (istart, iend);
  return ret;
}

gomp_loop_dynamic_next 函式的返回值是一個布林值:

  • 如果返回值為 true ,則說明還有剩餘的分塊需要執行。
  • 如果返回值為 false,則說明沒有剩餘的分塊需要執行了,根據前面 dynamic 編譯之後的結果,那麼就會退出 while 迴圈。

gomp_iter_dynamic_next 是劃分具體的分塊,並且將分塊的起始位置儲存到變數 istart 和 iend 當中,因為傳遞的是指標,就能夠使用 s0 和 e0 得到資料的值,下面是 gomp_iter_dynamic_next 的原始碼,就是具體的劃分演算法了。

bool
gomp_iter_dynamic_next (long *pstart, long *pend)
{
  // 得到當前執行緒的指標
  struct gomp_thread *thr = gomp_thread ();
  // 得到執行緒組共享的資料
  struct gomp_work_share *ws = thr->ts.work_share;
  long start, end, nend, chunk, incr;
  
  // 儲存迭代的最終值
  end = ws->end;
  // 這個值一般都是 1
  incr = ws->incr;
  // 儲存分塊的大小 chunk size
  chunk = ws->chunk_size;
  
  // ws->mode 在資料分塊比較小的時候就是 1 在資料分塊比較大的時候就是 0
  if (__builtin_expect (ws->mode, 1))
    {
    // __sync_fetch_and_add 函式是一個原子操作 ws->next 的初始值為 for 迴圈的起始位置值
    // 這個函式的返回值是 ws->next 的舊值 然後會將 ws->next 的值加上 chunk
    // 並且整個操作是原子的 是併發安全的
      long tmp = __sync_fetch_and_add (&ws->next, chunk);
    // 從小到大迭代
      if (incr > 0)
	{
	  if (tmp >= end)
	    return false;
    // 分塊的最終位置
	  nend = tmp + chunk;
    // 溢位保護操作 分塊的值需要小於最終的迭代位置
	  if (nend > end)
	    nend = end;
    // 將分塊的值賦值給 pstart 和 pend 這樣就能夠在並行域當中得到這個分塊的區間了
	  *pstart = tmp;
	  *pend = nend;
	  return true;
	}
      else
	{
    // 同樣的原理不過是從大到小達迭代
	  if (tmp <= end)
	    return false;
	  nend = tmp + chunk;
	  if (nend < end)
	    nend = end;
	  *pstart = tmp;
	  *pend = nend;
	  return true;
	}
    }
  
  // 當資料分塊比較大的時候執行下面的操作
  // 下面的整體的流程相對比較容易理解整個過程就是一個比較並交換的過程
  // 當比較並交換成功之後就返回結果 返回為 true 或者分塊已經分完的話也進行返回
  start = ws->next;
  while (1)
    {
      long left = end - start;
      long tmp;
      // 如果分塊已經完全分完 就直接返回 false 
      if (start == end)
	return false;

      if (incr < 0)
	{
	  if (chunk < left)
	    chunk = left;
	}
      else
	{
	  if (chunk > left)
	    chunk = left;
	}
      nend = start + chunk;

      tmp = __sync_val_compare_and_swap (&ws->next, start, nend);
      if (__builtin_expect (tmp == start, 1))
	break;

      start = tmp;
    }

  *pstart = start;
  *pend = nend;
  return true;
}

gomp_iter_dynamic_next 函式當中有兩種情況的劃分方式:

  • 當資料塊相對比較小的時候,說明劃分的次數就會相對多一點,在這種情況下如果使用 CAS 的話成功的機率就會相對低,對應的就會降低程式執行的效率,因此選擇 __sync_fetch_and_add 以減少多執行緒的競爭情況,降低 CPU 的消耗。

  • 當資料塊比較大的時候,說明劃分的次數相對比較小,就使用比較並交換的操作(CAS),這樣多個執行緒在進行競爭的時候開銷就比較小。

在上面的文章當中我們提到了,gomp_loop_init 函式是對執行緒共享資料 work_share 進行初始化操作,如果你對具體 work_share 中的資料初始化規則感興趣,下面是對其初始化的程式:

static inline void
gomp_loop_init (struct gomp_work_share *ws, long start, long end, long incr,
		enum gomp_schedule_type sched, long chunk_size)
{
  ws->sched = sched;
  ws->chunk_size = chunk_size;
  /* Canonicalize loops that have zero iterations to ->next == ->end.  */
  ws->end = ((incr > 0 && start > end) || (incr < 0 && start < end))
	    ? start : end;
  ws->incr = incr;
  ws->next = start;
  if (sched == GFS_DYNAMIC)
    {
      ws->chunk_size *= incr;

#ifdef HAVE_SYNC_BUILTINS
      {
	/* For dynamic scheduling prepare things to make each iteration
	   faster.  */
	struct gomp_thread *thr = gomp_thread ();
	struct gomp_team *team = thr->ts.team;
	long nthreads = team ? team->nthreads : 1;

	if (__builtin_expect (incr > 0, 1))
	  {
	    /* Cheap overflow protection.  */
	    if (__builtin_expect ((nthreads | ws->chunk_size)
				  >= 1UL << (sizeof (long)
					     * __CHAR_BIT__ / 2 - 1), 0))
	      ws->mode = 0;
	    else
	      ws->mode = ws->end < (LONG_MAX
				    - (nthreads + 1) * ws->chunk_size);
	  }
	/* Cheap overflow protection.  */
	else if (__builtin_expect ((nthreads | -ws->chunk_size)
				   >= 1UL << (sizeof (long)
					      * __CHAR_BIT__ / 2 - 1), 0))
	  ws->mode = 0;
	else
	  ws->mode = ws->end > (nthreads + 1) * -ws->chunk_size - LONG_MAX;
      }
#endif
    }
}

例項分析

在本小節當中我們將使用一個實際的例子去分析上面我們所談到的整個過程:

#include <stdio.h>
#include <omp.h>

int main()
{
#pragma omp parallel for num_threads(4) default(none) schedule(dynamic, 2)
  for(int i = 0; i < 12; ++i)
  {
    printf("i = %d tid = %d\n", i, omp_get_thread_num());
  }
  return 0;
}

上面的程式被編譯之後的結果如下所示,具體的程式分析和註釋都在下面的彙編程式當中:

000000000040073d <main>:
  40073d:       55                      push   %rbp
  40073e:       48 89 e5                mov    %rsp,%rbp
  400741:       48 83 ec 20             sub    $0x20,%rsp
  400745:       48 c7 04 24 02 00 00    movq   $0x2,(%rsp) # 這個就是 chunk size 符合上面的程式碼當中指定的 2
  40074c:       00 
  40074d:       41 b9 01 00 00 00       mov    $0x1,%r9d # 因為是從小到達 incr 這個引數是 1
  400753:       41 b8 0c 00 00 00       mov    $0xc,%r8d # 這個引數是 end 符合上面的程式 12
  400759:       b9 00 00 00 00          mov    $0x0,%ecx # 這個引數是 start 符合上面的程式 1
  40075e:       ba 04 00 00 00          mov    $0x4,%edx # num_threads(4) 執行緒的個數是 4
  400763:       be 00 00 00 00          mov    $0x0,%esi # 因為上面的程式碼當中並沒有在並行域當中使用資料 因此這個資料為 0 也就是 NULL 
  400768:       bf 88 07 40 00          mov    $0x400788,%edi # 函式指標 main._omp_fn.0
  40076d:       e8 ce fe ff ff          callq  400640 <GOMP_parallel_loop_dynamic_start@plt>
  400772:       bf 00 00 00 00          mov    $0x0,%edi
  400777:       e8 0c 00 00 00          callq  400788 <main._omp_fn.0>
  40077c:       e8 5f fe ff ff          callq  4005e0 <GOMP_parallel_end@plt>
  400781:       b8 00 00 00 00          mov    $0x0,%eax
  400786:       c9                      leaveq 
  400787:       c3                      retq
  
0000000000400788 <main._omp_fn.0>:
  400788:       55                      push   %rbp
  400789:       48 89 e5                mov    %rsp,%rbp
  40078c:       53                      push   %rbx
  40078d:       48 83 ec 38             sub    $0x38,%rsp
  400791:       48 89 7d c8             mov    %rdi,-0x38(%rbp)
  400795:       c7 45 ec 00 00 00 00    movl   $0x0,-0x14(%rbp)
  40079c:       48 8d 55 e0             lea    -0x20(%rbp),%rdx
  4007a0:       48 8d 45 d8             lea    -0x28(%rbp),%rax
  4007a4:       48 89 d6                mov    %rdx,%rsi
  4007a7:       48 89 c7                mov    %rax,%rdi
  4007aa:       e8 21 fe ff ff          callq  4005d0 <GOMP_loop_dynamic_next@plt>
  4007af:       84 c0                   test   %al,%al # 如果 GOMP_loop_dynamic_next 返回值是 0 則跳轉到 4007fb 執行函式 GOMP_loop_end_nowait
  4007b1:       74 48                   je     4007fb <main._omp_fn.0+0x73>
  4007b3:       48 8b 45 d8             mov    -0x28(%rbp),%rax
  4007b7:       89 45 ec                mov    %eax,-0x14(%rbp)
  4007ba:       48 8b 45 e0             mov    -0x20(%rbp),%rax
  4007be:       89 c3                   mov    %eax,%ebx
  # ===========================下面的程式碼就是執行迴圈和 body =================
  4007c0:       e8 2b fe ff ff          callq  4005f0 <omp_get_thread_num@plt>
  4007c5:       89 c2                   mov    %eax,%edx
  4007c7:       8b 45 ec                mov    -0x14(%rbp),%eax
  4007ca:       89 c6                   mov    %eax,%esi
  4007cc:       bf 94 08 40 00          mov    $0x400894,%edi
  4007d1:       b8 00 00 00 00          mov    $0x0,%eax
  4007d6:       e8 25 fe ff ff          callq  400600 <printf@plt>
  4007db:       83 45 ec 01             addl   $0x1,-0x14(%rbp)
  4007df:       39 5d ec                cmp    %ebx,-0x14(%rbp)
  4007e2:       7c dc                   jl     4007c0 <main._omp_fn.0+0x38>
  # ======================================================================
  # ============下面的程式碼主要是進行 while 迴圈檢視迴圈是否執行完成==============
  4007e4:       48 8d 55 e0             lea    -0x20(%rbp),%rdx
  4007e8:       48 8d 45 d8             lea    -0x28(%rbp),%rax
  4007ec:       48 89 d6                mov    %rdx,%rsi
  4007ef:       48 89 c7                mov    %rax,%rdi
  4007f2:       e8 d9 fd ff ff          callq  4005d0 <GOMP_loop_dynamic_next@plt>
  4007f7:       84 c0                   test   %al,%al
  4007f9:       75 b8                   jne    4007b3 <main._omp_fn.0+0x2b>
  # ======================================================================
  4007fb:       e8 10 fe ff ff          callq  400610 <GOMP_loop_end_nowait@plt>
  400800:       48 83 c4 38             add    $0x38,%rsp
  400804:       5b                      pop    %rbx
  400805:       5d                      pop    %rbp
  400806:       c3                      retq   
  400807:       66 0f 1f 84 00 00 00    nopw   0x0(%rax,%rax,1)
  40080e:       00 00

總結

在本篇文章當中我們主要分析了 OpenMP 當中 for 迴圈動態排程方式的具體實現原理,以及動態庫函式的分析。整個過程主要有兩大部分,一個是編譯角度,編譯器會將 for construct 編譯成什麼樣子,以及動態庫函式具體是如何劃分迭代分塊的。在迭代分塊當中主要分為兩種方式,當分塊數目多的時候不使用 CAS 因為這樣執行緒之間競爭比較激烈,但是當分塊數目比較小的時候就使用 CAS ,這種做法可以提高程式執行的效率。


更多精彩內容合集可訪問專案:https://github.com/Chang-LeHung/CSCore

關注公眾號:一無是處的研究僧,瞭解更多計算機(Java、Python、計算機系統基礎、演算法與資料結構)知識。

相關文章