架構師的Netty 筆記整理

認真期待發表於2018-05-03

Netty是一個高效能、非同步事件驅動的NIO框架,它提供了對TCP、UDP和檔案傳輸的支援,作為一個非同步NIO框架,Netty的所有IO操作都是非同步非阻塞的,通過Future-Listener機制,使用者可以方便的主動獲取或者通過通知機制獲得IO操作結果。

架構師的Netty 筆記整理

作為當前最流行的NIO框架,Netty在網際網路領域、大資料分散式計算領域、遊戲行業、通訊行業等獲得了廣泛的應用,一些業界著名的開源元件也基於Netty的NIO框架構建。

為什麼選擇Netty

Netty是業界最流行的NIO框架之一,它的健壯性、功能、效能、可定製性和可擴充套件性在同類框架中都是首屈一指的,它已經得到成百上千的商用專案驗證,例如Hadoop的RPC框架avro使用Netty作為底層通訊框架;很多其他業界主流的RPC框架,也使用Netty來構建高效能的非同步通訊能力。

Netty架構分析

Netty 採用了比較典型的三層網路架構進行設計,邏輯架構圖如下所示:

架構師的Netty 筆記整理

#第一層,Reactor 通訊排程層,它由一系列輔助類完成,包括 Reactor 執行緒 NioEventLoop 以及其父類、NioSocketChannel/NioServerSocketChannel 以及其父 類、ByteBuffer 以及由其衍生出來的各種 Buffer、Unsafe 以及其衍生出的各種內部類等。該層的主要職責就是監聽網路的讀寫和連線操作,負責將網路層的資料讀取到記憶體緩衝區中,然後觸發各種網路事件,例如連線建立、連線啟用、讀事 件、寫事件等等,將這些事件觸發到 PipeLine 中,由 PipeLine 充當的職責鏈來進行後續的處理。

#第二層,職責鏈 PipeLine,它負責事件在職責鏈中的有序傳播,同時負責動態的編排職責鏈,職責鏈可以選擇監聽和處理自己關心的事件,它可以攔截處理和向後/向前傳播事件,不同的應用的 Handler 節點的功能也不同,通常情況下,往往會開發編解碼 Hanlder 用於訊息的編解碼,它可以將外部的協議訊息轉換成內部的 POJO 物件,這樣上層業務側只需要關心處理業務邏輯即可,不需要感知底層的協議差異和執行緒模型差異,實現了架構層面的分層隔離。

#第三層,業務邏輯處理層。可以分為兩類:純粹的業務邏輯 處理,例如訂單處理;應用層協議管理,例如 HTTP 協議、FTP 協議等。

I/O模型

傳統同步阻塞I/O模式如下圖所示:

架構師的Netty 筆記整理

幾種I/O模型的功能和特性對比:

架構師的Netty 筆記整理

Netty的I/O模型基於非阻塞I/O實現,底層依賴的是JDK NIO框架的Selector。Selector提供選擇已經就緒的任務的能力。簡單來講,Selector會不斷地輪詢註冊在其上的Channel,如果某個Channel上面有新的TCP連線接入、讀和寫事件,這個Channel就處於就緒狀態,會被Selector輪詢出來,然後通過SelectionKey可以獲取就緒Channel的集合,進行後續的I/O操作。

一個多路複用器Selector可以同時輪詢多個Channel,由於JDK1.5_update10版本(+)使用了epoll()代替傳統的select實現,所以它並沒有最大連線控制程式碼1024/2048的限制。這也就意味著只需要一個執行緒負責Selector的輪詢,就可以接入成千上萬的客戶端,這確實是個非常巨大的技術進步。使用非阻塞I/O模型之後,Netty解決了傳統同步阻塞I/O帶來的效能、吞吐量和可靠性問題。

執行緒排程模型

常用的Reactor執行緒模型有三種,分別如下:

#Reactor單執行緒模型:Reactor單執行緒模型,指的是所有的I/O操作都在同一個NIO執行緒上面完成。對於一些小容量應用場景,可以使用單執行緒模型。

#Reactor多執行緒模型:Rector多執行緒模型與單執行緒模型最大的區別就是有一組NIO執行緒處理I/O操作。主要用於高併發、大業務量場景。

#主從Reactor多執行緒模型:主從Reactor執行緒模型的特點是服務端用於接收客戶端連線的不再是個1個單獨的NIO執行緒,而是一個獨立的NIO執行緒池。利用主從NIO執行緒模型,可以解決1個服務端監聽執行緒無法有效處理所有客戶端連線的效能不足問題。

事實上,Netty的執行緒模型並非固定不變,通過在啟動輔助類中建立不同的EventLoopGroup例項並通過適當的引數配置,就可以支援上述三種Reactor執行緒模型.

在大多數場景下,並行多執行緒處理可以提升系統的併發效能。但是,如果對於共享資源的併發訪問處理不當,會帶來嚴重的鎖競爭,這最終會導致效能的下降。為了儘可能的避免鎖競爭帶來的效能損耗,可以通過序列化設計,即訊息的處理儘可能在同一個執行緒內完成,期間不進行執行緒切換,這樣就避免了多執行緒競爭和同步鎖。

為了儘可能提升效能,Netty採用了序列無鎖化設計,在I/O執行緒內部進行序列操作,避免多執行緒競爭導致的效能下降。表面上看,序列化設計似乎CPU利用率不高,併發程度不夠。但是,通過調整NIO執行緒池的執行緒引數,可以同時啟動多個序列化的執行緒並行執行,這種區域性無鎖化的序列執行緒設計相比一個佇列-多個工作執行緒模型效能更優。

架構師的Netty 筆記整理

Reactor模型

Java NIO非堵塞技術實際是採取反應器模式,或者說是觀察者(observer)模式為我們監察I/O埠,如果有內容進來,會自動通知我們,這樣,我們就不必開啟多個執行緒死等,從外界看,實現了流暢的I/O讀寫,不堵塞了。

NIO 有一個主要的類Selector,這個類似一個觀察者,只要我們把需要探知的socketchannel告訴Selector,我們接著做別的事情,當有事件發生時,他會通知我們,傳回一組SelectionKey,我們讀取這些Key,就會獲得我們剛剛註冊過的socketchannel,然後,我們從這個Channel中讀取資料,接著我們可以處理這些資料。

反應器模式與觀察者模式在某些方面極為相似:當一個主體發生改變時,所有依屬體都得到通知。不過,觀察者模式與單個事件源關聯,而反應器模式則與多個事件源關聯 。

一般模型

架構師的Netty 筆記整理

EventLoopGroup:對應於Reactor模式中的定時器的角色,不斷地檢索是否有事件可用(I/O執行緒-BOSS),然後交給分離者將事件分發給對應的事件繫結的handler(WORK執行緒)。

經驗分享:在客戶端程式設計中經常容易出現在EVENTLOOP上做定時任務的,如果定時任務耗時很長或者存在阻塞,那麼可能會將I/O操作掛起(因為要等到定時任務做完才能做別的操作)。解決方法:用獨立的EventLoopGroup

序列化方式

影響序列化效能的關鍵因素總結如下:

- 序列化後的碼流大小(網路頻寬佔用)

- 序列化&反序列化的效能(CPU資源佔用)

- 併發呼叫的效能表現:穩定性、線性增長、偶現的時延毛刺等

對Java序列化和二進位制編碼分別進行效能測試,編碼100萬次,測試結果表明:Java序列化的效能只有二進位制編碼的6.17%左右。

架構師的Netty 筆記整理

Netty預設提供了對Google Protobuf的支援,通過擴充套件Netty的編解碼介面,使用者可以實現其它的高效能序列化框架,例如Thrift的壓縮二進位制編解碼框架。

不同的應用場景對序列化框架的需求也不同,對於高效能應用場景Netty預設提供了Google的Protobuf二進位制序列化框架,如果使用者對其它二進位制序列化框架有需求,也可以基於Netty提供的編解碼框架擴充套件實現。

Netty架構剖析之可靠性

Netty面臨的可靠性挑戰:

1. 作為RPC框架的基礎網路通訊框架,一旦故障將導致無法進行遠端服務(介面)呼叫。

2. 作為應用層協議的基礎通訊框架,一旦故障將導致應用協議棧無法正常工作。

3. 網路環境複雜(例如推送服務的GSM/3G/WIFI網路),故障不可避免,業務卻不能中斷。

從應用場景看,Netty是基礎的通訊框架,一旦出現Bug,輕則需要重啟應用,重則可能導致整個業務中斷。它的可靠性會影響整個業務叢集的資料通訊和交換,在當今以分散式為主的軟體架構體系中,通訊中斷就意味著整個業務中斷,分散式架構下對通訊的可靠性要求非常高。

從執行環境看,Netty會面臨惡劣的網路環境,這就要求它自身的可靠性要足夠好,平臺能夠解決的可靠性問題需要由Netty自身來解決,否則會導致上層使用者關注過多的底層故障,這將降低Netty的易用性,同時增加使用者的開發和運維成本。

Netty的可靠性是如此重要,它的任何故障都可能會導致業務中斷,蒙受巨大的經濟損失。因此,Netty在版本的迭代中不斷加入新的可靠性特性來滿足使用者日益增長的高可靠和健壯性需求。

鏈路有效性檢測

Netty提供的心跳檢測機制分為三種:

- 讀空閒,鏈路持續時間t沒有讀取到任何訊息

- 寫空閒,鏈路持續時間t沒有傳送任何訊息

- 讀寫空閒,鏈路持續時間t沒有接收或者傳送任何訊息

架構師的Netty 筆記整理

當網路發生單通、連線被防火牆Hang住、長時間GC或者通訊執行緒發生非預期異常時,會導致鏈路不可用且不易被及時發現。特別是異常發生在凌晨業務低谷期間,當早晨業務高峰期到來時,由於鏈路不可用會導致瞬間的大批量業務失敗或者超時,這將對系統的可靠性產生重大的威脅。

從技術層面看,要解決鏈路的可靠性問題,必須週期性的對鏈路進行有效性檢測。目前最流行和通用的做法就是心跳檢測。

心跳檢測機制分為三個層面:

1. TCP層面的心跳檢測,即TCP的Keep-Alive機制,它的作用域是整個TCP協議棧;

2. 協議層的心跳檢測,主要存在於長連線協議中。例如SMPP協議;

3. 應用層的心跳檢測,它主要由各業務產品通過約定方式定時給對方傳送心跳訊息實現。

Keep-Alive僅僅是TCP協議層會傳送連通性檢測包,但並不代表設定了Keep-Alive就是長連線了。

心跳檢測的目的就是確認當前鏈路可用,對方活著並且能夠正常接收和傳送訊息。

做為高可靠的NIO框架,Netty也提供了基於鏈路空閒的心跳檢測機制:

- 讀空閒,鏈路持續時間t沒有讀取到任何訊息

- 寫空閒,鏈路持續時間t沒有傳送任何訊息

- 讀寫空閒,鏈路持續時間t沒有接收或者傳送任何訊息(netty自帶心跳處理Handler IdleStateHandler)

在此我向大家推薦一個架構學習交流群。交流學習群號: 744642380, 裡面會分享一些資深架構師錄製的視訊錄影:有Spring,MyBatis,Netty原始碼分析,高併發、高效能、分散式、微服務架構的原理,JVM效能優化、分散式架構等這些成為架構師必備的知識體系。還能領取免費的學習資源,目前受益良

客戶端和服務端之間連線斷開機制

TCP連線的建立需要三個分節(三次握手),終止則需要四個分節。

架構師的Netty 筆記整理

對於大量短連線的情況下,經常出現卡在FIN_WAIT2和TIMEWAIT狀態的連線,等待系統回收,但是作業系統底層回收的時間頻率很長,導致SOCKET被耗盡。

TCP狀態圖

架構師的Netty 筆記整理

TCP/IP半關閉

從上述講的TCP關閉的四個分節可以看出,被動關閉執行方,傳送FIN分節的前提是TCP套接字對應應用程式呼叫close產生的。如果服務端有資料傳送給客戶端那麼可能存在服務端在接受到FIN之後,需要將資料傳送到客戶端才能傳送FIN位元組。這種處於業務考慮的情形通常稱為半關閉。

半關閉可能導致大量socket處於CLOSE_WAIT狀態

誰負責關閉連線合理

連線關閉觸發的條件通常分為如下幾種:

1. 資料傳送完成(傳送到對端並且收到響應),關閉連線

2. 通訊過程中產生異常

3. 特殊指令強制要求關閉連線

對於第一種,通常關閉時機是,資料傳送完成方發起(客戶端觸發居多); 對於第二種,異常產生方觸發(例如殘包、錯誤資料等)發起。但是此種情況可能也導致壓根無法傳送FIN。對於第三種,通常是用於運維等。由命令發起方產生。

流量整形

流量整形(Traffic Shaping)是一種主動調整流量輸出速率的措施。

Netty的流量整形有兩個作用:

1. 防止由於上下游網元效能不均衡導致下游網元被壓垮,業務流程中斷

2. 防止由於通訊模組接收訊息過快,後端業務執行緒處理不及時導致的"撐死"問題

流量整形的原理示意圖如下:

架構師的Netty 筆記整理

流量整形(Traffic Shaping)是一種主動調整流量輸出速率的措施。一個典型應用是基於下游網路結點的TP指標來控制本地流量的輸出。流量整形與流量監管的主要區別在於,流量整形對流量監管中需要丟棄的報文進行快取——通常是將它們放入緩衝區或佇列內,也稱流量整形(Traffic Shaping,簡稱TS)。當令牌桶有足夠的令牌時,再均勻的向外傳送這些被快取的報文。流量整形與流量監管的另一區別是,整形可能會增加延遲,而監管幾乎不引入額外的延遲。

#全域性流量整形:全域性流量整形的作用範圍是程式級的,無論你建立了多少個Channel,它的作用域針對所有的Channel。使用者可以通過引數設定:報文的接收速率、報文的傳送速率、整形週期。[GlobalChannelTrafficShapingHandler]

#鏈路級流量整形:單鏈路流量整形與全域性流量整形的最大區別就是它以單個鏈路為作用域,可以對不同的鏈路設定不同的整形策略。[ChannelTrafficShapingHandler針對於每個channel]

優雅停機

Netty的優雅停機三部曲: 1. 不再接收新訊息 2. 退出前的預處理操作 3. 資源的釋放操作

架構師的Netty 筆記整理

Java的優雅停機通常通過註冊JDK的ShutdownHook來實現,當系統接收到退出指令後,首先標記系統處於退出狀態,不再接收新的訊息,然後將積壓的訊息處理完,最後呼叫資源回收介面將資源銷燬,最後各執行緒退出執行。

通常優雅退出需要有超時控制機制,例如30S,如果到達超時時間仍然沒有完成退出前的資源回收等操作,則由停機指令碼直接呼叫kill -9 pid,強制退出。

在實際專案中,Netty作為高效能的非同步NIO通訊框架,往往用作基礎通訊框架負責各種協議的接入、解析和排程等,例如在RPC和分散式服務框架中,往往會使用Netty作為內部私有協議的基礎通訊框架。 當應用程式優雅退出時,作為通訊框架的Netty也需要優雅退出,主要原因如下:

1. 儘快的釋放NIO執行緒、控制程式碼等資源

2. 如果使用flush做批量訊息傳送,需要將積攢在傳送佇列中的待傳送訊息傳送完成

3. 正在write或者read的訊息,需要繼續處理

4. 設定在NioEventLoop執行緒排程器中的定時任務,需要執行或者清理

Netty架構剖析之安全性

Netty面臨的安全挑戰:

- 對第三方開放

- 作為應用層協議的基礎通訊框架

架構師的Netty 筆記整理

安全威脅場景分析:

#對第三方開放的通訊框架:如果使用Netty做RPC框架或者私有協議棧,RPC框架面向非授信的第三方開放,例如將內部的一些能力通過服務對外開放出去,此時就需要進行安全認證,如果開放的是公網IP,對於安全性要求非常高的一些服務,例如線上支付、訂購等,需要通過SSL/TLS進行通訊。

#應用層協議的安全性:作為高效能、非同步事件驅動的NIO框架,Netty非常適合構建上層的應用層協議。由於絕大多數應用層協議都是公有的,這意味著底層的Netty需要向上層提供通訊層的安全傳輸功能。

SSL/TLS

Netty安全傳輸特性:

- 支援SSL V2和V3

- 支援TLS

- 支援SSL單向認證、雙向認證和第三方CA認證。

SSL單向認證流程圖如下:

架構師的Netty 筆記整理

Netty通過SslHandler提供了對SSL的支援,它支援的SSL協議型別包括:SSL V2、SSL V3和TLS。

#單向認證:單向認證,即客戶端只驗證服務端的合法性,服務端不驗證客戶端。

#雙向認證:與單向認證不同的是服務端也需要對客戶端進行安全認證。這就意味著客戶端的自簽名證照也需要匯入到服務端的數字證照倉庫中。

#CA認證:基於自簽名的SSL雙向認證,只要客戶端或者服務端修改了金鑰和證照,就需要重新進行簽名和證照交換,這種除錯和維護工作量是非常大的。因此,在實際的商用系統中往往會使用第三方CA證照頒發機構進行簽名和驗證。我們的瀏覽器就儲存了幾個常用的CA_ROOT。每次連線到網站時只要這個網站的證照是經過這些CA_ROOT簽名過的。就可以通過驗證了。

可擴充套件的安全特性

通過Netty的擴充套件特性,可以自定義安全策略:

- IP地址黑名單機制

- 接入認證

- 敏感資訊加密或者過濾機制

IP地址黑名單是比較常用的弱安全保護策略,它的特點就是服務端在與客戶端通訊的過程中,對客戶端的IP地址進行校驗,如果發現對方IP在黑名單列表中,則拒絕與其通訊,關閉鏈路。

接入認證策略非常多,通常是較強的安全認證策略,例如基於使用者名稱+密碼的認證,認證內容往往採用加密的方式,例如Base64+AES等。

Netty架構剖析之擴充套件性

通過Netty的擴充套件特性,可以自定義安全策略:

- 執行緒模型可擴充套件

- 序列化方式可擴充套件

- 上層協議棧可擴充套件

- 提供大量的網路事件切面,方便使用者功能擴充套件

Netty的架構可擴充套件性設計理念如下:

1. 判斷擴充套件點,事先預留相關擴充套件介面,給使用者二次定製和擴充套件使用

2. 主要功能點都基於介面程式設計,方便使用者定製和擴充套件。

粘連包解決方案

TCP粘包是指傳送方傳送的若干包資料到接收方接收時粘成一包,從接收緩衝區看,後一包資料的頭緊接著前一包資料的尾。

出現粘包現象的原因是多方面的,它既可能由傳送方造成,也可能由接收方造成。傳送方引起的粘包是由TCP協議本身造成的,TCP為提高傳輸效率,傳送方往往要收集到足夠多的資料後才傳送一包資料。若連續幾次傳送的資料都很少,通常TCP會根據優化演算法把這些資料合成一包後一次傳送出去,這樣接收方就收到了粘包資料。接收方引起的粘包是由於接收方使用者程式不及時接收資料,從而導致粘包現象。這是因為接收方先把收到的資料放在系統接收緩衝區,使用者程式從該緩衝區取資料,若下一包資料到達時前一包資料尚未被使用者程式取走,則下一包資料放到系統接收緩衝區時就接到前一包資料之後,而使用者程式根據預先設定的緩衝區大小從系統接收緩衝區取資料,這樣就一次取到了多包資料。

粘包情況有兩種:

1. 粘在一起的包都是完整的資料包

2. 粘在一起的包有不完整的包

解決粘連包的方法大致分為如下三種:

1. 傳送方開啟TCP_NODELAY

2. 接收方簡化或者優化流程儘可能快的接收資料

3. 認為強制分包每次只讀一個完整的包

對於以上三種方式,第一種會加重網路負擔,第二種治標不治本,第三種算比較合理的。

第三種又可以分兩種方式:

1. 每次都只讀取一個完整的包,不如不足一個完整的包,就等下次再接收,如果緩衝區有N個包要接受,那麼需要分N次才能接收完成

2. 有多少接收多少,將接収的資料快取在一個臨時的快取中,交由後續的專門解碼的執行緒/程式處理

以上兩種分包方式,如果強制關閉程式,資料會存在丟失,第一種資料丟失在接收緩衝區;第二種丟失在程式自身快取。

Netty自帶的幾種粘連包解決方案:

1. DelimiterBasedFrameDecoder

2. FixedLengthFrameDecoder

3. LengthFieldBasedFrameDecoder

Netty解包組包

對於TCP程式設計最常遇到的就是根據具體的協議進行組包或者解包。

根據協議的不同大致可以分為如下幾種型別:

1. JAVA平臺之間通過JAVA序列化進行解包組包(object->byte->object)

2. 固定長度的包結構(定長每個包都是M個位元組的長度)

3. 帶有明確分隔符協議的解包組包(例如HTTP協議\r\n\r\n)

4. 可動態擴充套件的協議,此種協議通常遵循訊息頭+訊息體的機制,其中訊息頭的長度是固定的,訊息體的長度根據具體業務的不同長度可能不同。例如(SMPP協議、CMPP協議)

#序列化協議組包解包

可以使用的有:MessagePack、Google Protobuf、Hessian2

#固定長度解包組包

FixedLengthFrameDecoder 解包,MessageToByteEncoder 組包

#帶有分隔符協議的解包組包

DelimiterBasedFrameDecoder 解包,MessageToByteEncoder 組包

#HTTP

io.netty.codec.http

#訊息頭固定長度,訊息體不固定長度協議解包組包

LengthFieldBasedFrameDecoder

需要注意的是:對於解碼的Handler必須做到在將ByteBuf解析成Object之後,需要將ByteBuf release()。

Netty Client斷網重連機制

對於長連線的程式斷網重連幾乎是程式的標配。

斷網重連具體可以分為兩類:

1. CONNECT失敗,需要重連

2. 程式執行過程中斷網、遠端強制關閉連線、收到錯誤包必須重連

對於第一種解決方案是:實現ChannelFutureListener 用來啟動時監測是否連線成功,不成功的話重試。

Future-Listener機制

在併發程式設計中,我們通常會用到一組非阻塞的模型:Promise,Future,Callback。

其中的Future表示一個可能還沒有實際完成的非同步任務的結果,針對這個結果新增Callback以便在執行任務成功或者失敗後做出響應的操作。而經由Promise交給執行者,任務執行者通過Promise可以標記任務完成或者失敗。以上這套模型是很多非同步非阻塞框架的基礎。具體的理解可參見JDK的FutureTask和Callable。JDK的實現版本,在獲取最終結果的時候,不得不做一些阻塞的方法等待最終結果的到來。Netty的Future機制是JDK機制的一個子版本,它支援給Future新增Listener,以方便EventLoop在任務排程完成之後呼叫。

資料安全性之滑動視窗協議

我們假設一個場景,客戶端每次請求服務端必須得到服務端的一個響應,由於TCP的資料傳送和資料接收是非同步的,就存在必須存在一個等待響應的過程。該過程根據實現方式不同可以分為一下幾類(部分是錯誤案例):

1. 每次傳送一個資料包,然後進入休眠(sleep)或者阻塞(await)狀態,直到響應回來或者超時,整個呼叫鏈結束。此場景是典型的一問一答的場景,效率極其低下

2. 讀寫分離,寫模組只負責寫,讀模組則負責接收響應,然後做後續的處理。此種場景能儘可能的利用頻寬進行讀寫。但是此場景不坐控速操作可能導致大量報文丟失或者重複傳送。

3. 實現類似於Windowed Protocol。此視窗是以上兩種方案的折中版,即允許一定數量的批量傳送,又能保證資料的完整性。

在此我向大家推薦一個架構學習交流群。交流學習群號: 744642380, 裡面會分享一些資深架構師錄製的視訊錄影:有Spring,MyBatis,Netty原始碼分析,高併發、高效能、分散式、微服務架構的原理,JVM效能優化、分散式架構等這些成為架構師必備的知識體系。還能領取免費的學習資源,目前受益良


相關文章