基於大量圖片與例項深度解析Netty中的核心元件

跟著Mic學架構發表於2021-11-10

本篇文章主要詳細分析Netty中的核心元件。

啟動器Bootstrap和ServerBootstrap作為Netty構建客戶端和服務端的路口,是編寫Netty網路程式的第一步。它可以讓我們把Netty的核心元件像搭積木一樣組裝在一起。在Netty Server端構建的過程中,我們需要關注三個重要的步驟

  • 配置執行緒池
  • Channel初始化
  • Handler處理器構建

排程器詳解

前面我們講過NIO多路複用的設計模式之Reactor模型,Reactor模型的主要思想就是把網路連線、事件分發、任務處理的職責進行分離,並且通過引入多執行緒來提高Reactor模型中的吞吐量。其中包括三種Reactor模型

  • 單執行緒單Reactor模型
  • 多執行緒單Reactor模型
  • 多執行緒多Reactor模型

在Netty中,可以非常輕鬆的實現上述三種執行緒模型,並且Netty推薦使用主從多執行緒模型,這樣就可以輕鬆的實現成千上萬的客戶端連線的處理。在海量的客戶端併發請求中,主從多執行緒模型可以通過增加SubReactor執行緒數量,充分利用多核能力提升系統吞吐量。

Reactor模型的執行機制分為四個步驟,如圖2-10所示。

  • 連線註冊,Channel建立後,註冊到Reactor執行緒中的Selector選擇器
  • 事件輪詢,輪詢Selector選擇器中已經註冊的所有Channel的I/O事件
  • 事件分發,為準備就緒的I/O事件分配相應的處理執行緒
  • 任務處理,Reactor執行緒還負責任務佇列中的非I/O任務,每個Worker執行緒從各自維護的任務佇列中取出任務非同步執行。

image-20210814175742838

<center>圖2-10 Reactor工作流程</center>

EventLoop事件迴圈

在Netty中,Reactor模型的事件處理器是使用EventLoop來實現的,一個EventLoop對應一個執行緒,EventLoop內部維護了一個Selector和taskQueue,分別用來處理網路IO事件以及內部任務,它的工作原理如圖2-11所示。

image-20210816142508054

<center>圖2-11 NioEventLoop原理</center>

EventLoop基本應用

下面這段程式碼表示EventLoop,分別實現Selector註冊以及普通任務提交功能。

public class EventLoopExample {

    public static void main(String[] args) {
        EventLoopGroup group=new NioEventLoopGroup(2);
        System.out.println(group.next()); //輸出第一個NioEventLoop
        System.out.println(group.next()); //輸出第二個NioEventLoop
        System.out.println(group.next()); //由於只有兩個,所以又會從第一個開始
        //獲取一個事件迴圈物件NioEventLoop
        group.next().register(); //註冊到selector上
        group.next().submit(()->{
            System.out.println(Thread.currentThread().getName()+"-----");
        });
    }
}

EventLoop的核心流程

基於上述的講解,理解了EventLoop的工作機制後,我們再通過一個整體的流程圖來說明,如圖2-12所示。

EventLoop是一個Reactor模型的事件處理器,一個EventLoop對應一個執行緒,其內部會維護一個selector和taskQueue,負責處理IO事件和內部任務。IO事件和內部任務執行時間百分比通過ioRatio來調節,ioRatio表示執行IO時間所佔百分比。任務包括普通任務和已經到時的延遲任務,延遲任務存放到一個優先順序佇列PriorityQueue中,執行任務前從PriorityQueue讀取所有到時的task,然後新增到taskQueue中,最後統一執行task。

image-20210816144036419

<center>圖2-12 EventLoop工作機制</center>

EventLoop如何實現多種Reactor模型

  • 單執行緒模式

    EventLoopGroup group=new NioEventLoopGroup(1);
    ServerBootstrap b=new ServerBootstrap();
    b.group(group);
  • 多執行緒模式

    EventLoopGroup group =new NioEventLoopGroup(); //預設會設定cpu核心數的2倍
    ServerBootstrap b=new ServerBootstrap();
    b.group(group);
  • 多執行緒主從模式

    EventLoopGroup boss=new NioEventLoopGroup(1);
    EventLoopGroup work=new NioEventLoopGroup();
    ServerBootstrap b=new ServerBootstrap();
    b.group(boss,work);

EventLoop實現原理

  • EventLoopGroup初始化方法,在MultithreadEventExecutorGroup.java中,根據配置的nThreads數量,構建一個EventExecutor陣列

    protected MultithreadEventExecutorGroup(int nThreads, Executor executor,
                                            EventExecutorChooserFactory chooserFactory, Object... args) {
        checkPositive(nThreads, "nThreads");
    
        if (executor == null) {
            executor = new ThreadPerTaskExecutor(newDefaultThreadFactory());
        }
    
        children = new EventExecutor[nThreads];
    
        for (int i = 0; i < nThreads; i ++) {
            boolean success = false;
            try {
                children[i] = newChild(executor, args);
            }
        }
    }
  • 註冊channel到多路複用器的實現,MultithreadEventLoopGroup.register方法()

    SingleThreadEventLoop ->AbstractUnsafe.register ->AbstractChannel.register0->AbstractNioChannel.doRegister()

    可以看到會把channel註冊到某一個eventLoop中的unwrappedSelector復路器中。

    protected void doRegister() throws Exception {
            boolean selected = false;
            for (;;) {
                try {
                    selectionKey = javaChannel().register(eventLoop().unwrappedSelector(), 0, this);
                    return;
                }
            }
    }
  • 事件處理過程,通過NioEventLoop中的run方法不斷遍歷

    protected void run() {
        int selectCnt = 0;
        for (;;) {
            try {
                int strategy;
                try {
                    //計算策略,根據阻塞佇列中是否含有任務來決定當前的處理方式
                    strategy = selectStrategy.calculateStrategy(selectNowSupplier, hasTasks());
                    switch (strategy) {
                        case SelectStrategy.CONTINUE:
                            continue;
                        case SelectStrategy.BUSY_WAIT:
                            // fall-through to SELECT since the busy-wait is not supported with NIO
                        case SelectStrategy.SELECT:
                            long curDeadlineNanos = nextScheduledTaskDeadlineNanos();
                            if (curDeadlineNanos == -1L) {
                                curDeadlineNanos = NONE; // nothing on the calendar
                            }
                            nextWakeupNanos.set(curDeadlineNanos);
                            try {
                                if (!hasTasks()) { //如果佇列中資料為空,則呼叫select查詢就緒事件
                                    strategy = select(curDeadlineNanos);
                                }
                            } finally {
                                nextWakeupNanos.lazySet(AWAKE);
                            }
                        default:
                    }
                }
                selectCnt++;
                cancelledKeys = 0;
                needsToSelectAgain = false;
                   /* ioRatio調節連線事件和內部任務執行事件百分比
                    * ioRatio越大,連線事件處理佔用百分比越大 */
                final int ioRatio = this.ioRatio;
                boolean ranTasks;
                if (ioRatio == 100) {
                    try {
                        if (strategy > 0) { //處理IO時間
                            processSelectedKeys();
                        }
                    } finally {
                        //確保每次都要執行佇列中的任務
                        ranTasks = runAllTasks();
                    }
                } else if (strategy > 0) {
                    final long ioStartTime = System.nanoTime();
                    try {
                        processSelectedKeys();
                    } finally {
                        // Ensure we always run tasks.
                        final long ioTime = System.nanoTime() - ioStartTime;
                        ranTasks = runAllTasks(ioTime * (100 - ioRatio) / ioRatio);
                    }
                } else {
                    ranTasks = runAllTasks(0); // This will run the minimum number of tasks
                }
                if (ranTasks || strategy > 0) {
                    if (selectCnt > MIN_PREMATURE_SELECTOR_RETURNS && logger.isDebugEnabled()) {
                        logger.debug("Selector.select() returned prematurely {} times in a row for Selector {}.",
                                     selectCnt - 1, selector);
                    }
                    selectCnt = 0;
                } else if (unexpectedSelectorWakeup(selectCnt)) { // Unexpected wakeup (unusual case)
                    selectCnt = 0;
                }
            }
    }

服務編排層Pipeline的協調處理

通過EventLoop可以實現任務的排程,負責監聽I/O事件、訊號事件等,當收到相關事件後,需要有人來響應這些事件和資料,而這些事件是通過ChannelPipeline中所定義的ChannelHandler完成的,他們是Netty中服務編排層的核心元件。

在下面這段程式碼中,我們增加了h1和h2兩個InboundHandler,用來處理客戶端資料的讀取操作,程式碼如下。

ServerBootstrap bootstrap = new ServerBootstrap();
bootstrap.group(bossGroup, workerGroup)
    //配置Server的通道,相當於NIO中的ServerSocketChannel
    .channel(NioServerSocketChannel.class)
    //childHandler表示給worker那些執行緒配置了一個處理器,
    // 這個就是上面NIO中說的,把處理業務的具體邏輯抽象出來,放到Handler裡面
    .childHandler(new ChannelInitializer<SocketChannel>() {
        @Override
        protected void initChannel(SocketChannel socketChannel) throws Exception {
            //                            socketChannel.pipeline().addLast(new NormalMessageHandler());
            socketChannel.pipeline().addLast("h1",new ChannelInboundHandlerAdapter(){
                @Override
                public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
                    System.out.println("handler-01");
                    super.channelRead(ctx, msg);
                }
            }).addLast("h2",new ChannelInboundHandlerAdapter(){
                @Override
                public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
                    System.out.println("handler-02");
                    super.channelRead(ctx, msg);
                }
            });
        }
    });

上述程式碼構建了一個ChannelPipeline,得到如圖2-13所示的結構,每個Channel都會繫結一個ChannelPipeline,一個ChannelPipeline包含多個ChannelHandler,這些Handler會被包裝成ChannelHandlerContext加入到Pipeline構建的雙向連結串列中。

ChannelHandlerContext用來儲存ChannelHandler的上下文,它包含了ChannelHandler生命週期中的所有事件,比如connect/bind/read/write等,這樣設計的好處是,各個ChannelHandler進行資料傳遞時,前置和後置的通用邏輯就可以直接儲存到ChannelHandlerContext中進行傳遞。

image-20210816165542050

<center>圖2-13</center>

出站和入站操作

根據網路資料的流向,ChannelPipeline分為入站ChannelInBoundHandler和出站ChannelOutboundHandler兩個處理器,如圖2-14所示,客戶端與服務端通訊過程中,資料從客戶端發向服務端的過程叫出站,對於服務端來說,資料從客戶端流入到服務端,這個時候是入站。

image-20210812224219710

<center>圖2-14 InBound和OutBound的關係</center>

ChannelHandler事件觸發機制

當某個Channel觸發了IO事件後,會通過Handler進行處理,而ChannelHandler是圍繞I/O事件的生命週期來設計的,比如建立連線、讀資料、寫資料、連線銷燬等。

ChannelHandler有兩個重要的子介面實現,分別攔截資料流入和資料流出的I/O事件

  • ChannelInboundHandler
  • ChannelOutboundHandler

圖2-15中顯示的Adapter類,提供很多預設操作,比如ChannelHandler中有很多很多方法,我們使用者自定義的方法有時候不需要過載全部,只需要過載一兩個方法,那麼可以使用Adapter類,它裡面有很多預設的方法。其它框架中結尾是Adapter的類的作用也大都是如此。所以我們在使用netty的時候,往往很少直接實現ChannelHandler的介面,經常是繼承Adapter類。

<img src="https://mic-blob-bucket.oss-cn-beijing.aliyuncs.com/202111090025881.png" alt="image-20210816200206761" style="zoom:67%;" />

<center>圖2-15 ChannelHandler類關係圖</center>

ChannelInboundHandler事件回撥和觸發時機如下

事件回撥方法觸發時機
channelRegisteredChannel 被註冊到 EventLoop
channelUnregisteredChannel 從 EventLoop 中取消註冊
channelActiveChannel 處於就緒狀態,可以被讀寫
channelInactiveChannel 處於非就緒狀態
channelReadChannel 可以從遠端讀取到資料
channelReadCompleteChannel 讀取資料完成
userEventTriggered使用者事件觸發時
channelWritabilityChangedChannel 的寫狀態發生變化

ChannelOutboundHandler時間回撥觸發時機

事件回撥方法觸發時機
bind當請求將channel繫結到本地地址時被呼叫
connect當請求將channel連線到遠端節點時被呼叫
disconnect當請求將channel從遠端節點斷開時被呼叫
close當請求關閉channel時被呼叫
deregister當請求將channel從它的EventLoop登出時被呼叫
read當請求通過channel讀取資料時被呼叫
flush當請求通過channel將入隊資料重新整理到遠端節點時呼叫
write當請求通過channel將資料寫到遠端節點時被呼叫

事件傳播機制演示

public class NormalOutBoundHandler extends ChannelOutboundHandlerAdapter {
    private final String name;

    public NormalOutBoundHandler(String name) {
        this.name = name;
    }

    @Override
    public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise) throws Exception {
        System.out.println("OutBoundHandler:"+name);
        super.write(ctx, msg, promise);
    }
}
public class NormalInBoundHandler extends ChannelInboundHandlerAdapter {
    private final String name;
    private final boolean flush;

    public NormalInBoundHandler(String name, boolean flush) {
        this.name = name;
        this.flush = flush;
    }

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        System.out.println("InboundHandler:"+name);
        if(flush){
            ctx.channel().writeAndFlush(msg);
        }else {
            super.channelRead(ctx, msg);
        }
    }
}
ServerBootstrap bootstrap = new ServerBootstrap();
bootstrap.group(bossGroup, workerGroup)
    //配置Server的通道,相當於NIO中的ServerSocketChannel
    .channel(NioServerSocketChannel.class)
    //childHandler表示給worker那些執行緒配置了一個處理器,
    // 這個就是上面NIO中說的,把處理業務的具體邏輯抽象出來,放到Handler裡面
    .childHandler(new ChannelInitializer<SocketChannel>() {
        @Override
        protected void initChannel(SocketChannel socketChannel) throws Exception {
            socketChannel.pipeline()
                .addLast(new NormalInBoundHandler("NormalInBoundA",false))
                .addLast(new NormalInBoundHandler("NormalInBoundB",false))
                .addLast(new NormalInBoundHandler("NormalInBoundC",true));
            socketChannel.pipeline()
                .addLast(new NormalOutBoundHandler("NormalOutBoundA"))
                .addLast(new NormalOutBoundHandler("NormalOutBoundB"))
                .addLast(new NormalOutBoundHandler("NormalOutBoundC"));
        }
    });

上述程式碼執行後會得到如下執行結果

InboundHandler:NormalInBoundA
InboundHandler:NormalInBoundB
InboundHandler:NormalInBoundC
OutBoundHandler:NormalOutBoundC
OutBoundHandler:NormalOutBoundB
OutBoundHandler:NormalOutBoundA

當客戶端向服務端傳送請求時,會觸發服務端的NormalInBound呼叫鏈,按照排列順序逐個呼叫Handler,當InBound處理完成後呼叫WriteAndFlush方法向客戶端寫回資料,此時會觸發NormalOutBoundHandler呼叫鏈的write事件。

從執行結果來看,Inbound和Outbound的事件傳播方向是不同的,Inbound傳播方向是head->tail,Outbound傳播方向是Tail-Head。

異常傳播機制

ChannelPipeline時間傳播機制是典型的責任鏈模式,那麼有同學肯定會有疑問,如果這條鏈路中某個handler出現異常,那會導致什麼問題呢?我們對前面的例子修改NormalInBoundHandler

public class NormalInBoundHandler extends ChannelInboundHandlerAdapter {
    private final String name;
    private final boolean flush;

    public NormalInBoundHandler(String name, boolean flush) {
        this.name = name;
        this.flush = flush;
    }

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        System.out.println("InboundHandler:"+name);
        if(flush){
            ctx.channel().writeAndFlush(msg);
        }else {
            //增加異常處理
            throw new RuntimeException("InBoundHandler:"+name);
        }
    }
}

這個時候一旦丟擲異常,會導致整個請求鏈被中斷,在ChannelHandler中提供了一個異常捕獲方法,這個方法可以避免ChannelHandler鏈中某個Handler異常導致請求鏈路中斷。它會把異常按照Handler鏈路的順序從head節點傳播到Tail節點。如果使用者最終沒有對異常進行處理,則最後由Tail節點進行統一處理

修改NormalInboundHandler,重寫下面這個方法。
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
    System.out.println("InboundHandlerException:"+name);
    super.exceptionCaught(ctx, cause);
}

在Netty應用開發中,好的異常處理非常重要能夠讓問題排查變得很輕鬆,所以我們可以通過一種統一攔截的方式來解決異常處理問題。

新增一個複合處理器實現類

public class ExceptionHandler extends ChannelDuplexHandler {

    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        if(cause instanceof RuntimeException){
            System.out.println("處理業務異常");
        }
        super.exceptionCaught(ctx, cause);
    }
}

把新增的ExceptionHandler新增到ChannelPipeline中

bootstrap.group(bossGroup, workerGroup)
    //配置Server的通道,相當於NIO中的ServerSocketChannel
    .channel(NioServerSocketChannel.class)
    //childHandler表示給worker那些執行緒配置了一個處理器,
    // 這個就是上面NIO中說的,把處理業務的具體邏輯抽象出來,放到Handler裡面
    .childHandler(new ChannelInitializer<SocketChannel>() {
        @Override
        protected void initChannel(SocketChannel socketChannel) throws Exception {
            socketChannel.pipeline()
                .addLast(new NormalInBoundHandler("NormalInBoundA",false))
                .addLast(new NormalInBoundHandler("NormalInBoundB",false))
                .addLast(new NormalInBoundHandler("NormalInBoundC",true));
            socketChannel.pipeline()
                .addLast(new NormalOutBoundHandler("NormalOutBoundA"))
                .addLast(new NormalOutBoundHandler("NormalOutBoundB"))
                .addLast(new NormalOutBoundHandler("NormalOutBoundC"))
                .addLast(new ExceptionHandler());
        }
    });

最終,我們就能夠實現異常的統一處理。

版權宣告:本部落格所有文章除特別宣告外,均採用 CC BY-NC-SA 4.0 許可協議。轉載請註明來自 Mic帶你學架構
如果本篇文章對您有幫助,還請幫忙點個關注和贊,您的堅持是我不斷創作的動力。歡迎關注同名微信公眾號獲取更多技術乾貨!

相關文章