從 Linux 原始碼看 socket 的阻塞和非阻塞

發表於2018-04-12

筆者一直覺得如果能知道從應用到框架再到作業系統的每一處程式碼,是一件Exciting的事情。

大部分高效能網路框架採用的是非阻塞模式。筆者這次就從linux原始碼的角度來闡述socket阻塞(block)和非阻塞(non_block)的區別。 本文原始碼均來自採用Linux-2.6.24核心版本。

一個TCP非阻塞client端簡單的例子

如果我們要產生一個非阻塞的socket,在C語言中如下程式碼所示:

由於網路協議非常複雜,核心裡面用到了大量的物件導向的技巧,所以我們從建立連線開始,一步一步追述到最後程式碼的呼叫點。

socket的建立

很明顯,核心的第一步應該是通過AF_INET、SOCK_STREAM以及最後一個引數0定位到需要建立一個TCP的socket,如下圖綠線所示:

從 Linux 原始碼看 socket 的阻塞和非阻塞

我們跟蹤原始碼呼叫

進一步分析__sock_create的程式碼判斷:

const struct net_proto_family *pf; // RCU(Read-Copy Update)是linux的一種核心同步方法,在此不闡述 // family=INET pf = rcu_dereference(net_families[family]); err = pf->create(net, sock, protocol);

從 Linux 原始碼看 socket 的阻塞和非阻塞

則通過原始碼可知,由於是AF_INET(PF_INET),所以net_families[PF_INET].create=inet_create(以後我們都用PF_INET表示),即
pf->create = inet_create; 進一步追溯呼叫:

上面的程式碼就是在INET中尋找SOCK_STREAM的過程了 我們再看一下inetsw[SOCK_STREAM]的具體配置:

這邊也用了過載,AF_INET有TCP、UDP以及Raw三種:

從 Linux 原始碼看 socket 的阻塞和非阻塞

從上述程式碼,我們可以清楚的發現sock->ops=&inet_stream_ops;

即sock->ops->recvmsg = sock_common_recvmsg;
同時sock->sk->sk_prot = tcp_prot;

我們再看下tcp_prot中的各個函式過載的定義:

fcntl控制socket的阻塞\非阻塞狀態

我們用fcntl修改socket的阻塞\非阻塞狀態。 事實上: fcntl的作用就是將O_NONBLOCK標誌位儲存在sock_fd對應的filp結構的f_lags裡,如下圖所示。

從 Linux 原始碼看 socket 的阻塞和非阻塞

追蹤setfl程式碼:

上圖中,由sock_fd在task_struct(程式結構體)->files_struct->fd_array中找到對應的socket的file描述符,再修改file->flags

在呼叫socket.recv的時候

我們跟蹤原始碼呼叫:

由上文可知: sock->ops->recvmsg = sock_common_recvmsg;

sock

值得注意的是,在sock_recmsg中,有對標識O_NONBLOCK的處理

上述程式碼中sock關聯的file中獲取其f_flags,如果flags有O_NONBLOCK標識,那麼就設定msg_flags為MSG_DONTWAIT(不等待)。
fcntl與socket就是通過其共同操作File結構關聯起來的。

繼續跟蹤呼叫

sock_common_recvmsg

由上文可知: sk->sk_prot->recvmsg 其中sk_prot=tcp_prot,即最終呼叫的是tcp_prot->tcp_recvmsg,
上面的程式碼可以看出,如果fcntl(O_NONBLOCK)=>MSG_DONTWAIT置位=>(flags & MSG_DONTWAIT)>0, 再結合tcp_recvmsg的函式簽名,即如果設定了O_NONBLOCK的話,設定給tcp_recvmsg的nonblock引數>0,關係如下圖所示:

從 Linux 原始碼看 socket 的阻塞和非阻塞

最終的呼叫邏輯tcp_recvmsg

首先我們看下tcp_recvmsg的函式簽名:

顯然我們關注焦點在(int nonblock這個引數上):

上面的邏輯歸結起來就是:
(1)在設定了nonblock的時候,如果copied>0,則返回讀了多少位元組,如果copied=0,則返回-EAGAIN,提示應用重複呼叫。
(2)如果沒有設定nonblock,如果讀取的資料>=期望,則返回讀取了多少位元組。如果沒有則用sk_wait_data將當前程式等待。
如下流程圖所示:

從 Linux 原始碼看 socket 的阻塞和非阻塞

阻塞函式sk_wait_data

sk_wait_data程式碼-函式為:

該函式呼叫schedule_timeout進入睡眠,其進一步呼叫了schedule函式,首先從執行佇列刪除,其次加入到等待佇列,最後呼叫和體系結構相關的switch_to巨集來完成程式間的切換。
如下圖所示:

從 Linux 原始碼看 socket 的阻塞和非阻塞

阻塞後什麼時候恢復執行呢

情況1:有對應的網路資料到來

首先我們看下網路分組到來的核心路徑,網路卡發起中斷後呼叫netif_rx將事件掛入CPU的等待佇列,並喚起軟中斷(soft_irq),再通過linux的軟中斷機制呼叫net_rx_action,如下圖所示:

從 Linux 原始碼看 socket 的阻塞和非阻塞

注:上圖來自PLKA(<<深入Linux核心架構>>)
緊接著跟蹤next_rx_action

緊接著tcp_v4_rcv:

在這裡__wake_up_common將停在當前wait_queue_head_t中的程式喚醒,即狀態改為task_running,等待CFS排程以進行下一步的動作,如下圖所示。

從 Linux 原始碼看 socket 的阻塞和非阻塞

情況2:設定的超時時間到來

在前面呼叫sk_wait_event中呼叫了schedule_timeout

process_timeout函式即是將此程式重新喚醒

總結

linux核心原始碼博大精深,閱讀其程式碼很費周折。希望筆者這篇文章能幫助到閱讀linux網路協議棧程式碼的人。

相關文章