基於大量圖片與例項深度解析Netty中的核心元件

跟著Mic學架構發表於2021-11-10

本篇文章主要詳細分析Netty中的核心元件。

啟動器Bootstrap和ServerBootstrap作為Netty構建客戶端和服務端的路口,是編寫Netty網路程式的第一步。它可以讓我們把Netty的核心元件像搭積木一樣組裝在一起。在Netty Server端構建的過程中,我們需要關注三個重要的步驟

  • 配置執行緒池
  • Channel初始化
  • Handler處理器構建

排程器詳解

前面我們講過NIO多路複用的設計模式之Reactor模型,Reactor模型的主要思想就是把網路連線、事件分發、任務處理的職責進行分離,並且通過引入多執行緒來提高Reactor模型中的吞吐量。其中包括三種Reactor模型

  • 單執行緒單Reactor模型
  • 多執行緒單Reactor模型
  • 多執行緒多Reactor模型

在Netty中,可以非常輕鬆的實現上述三種執行緒模型,並且Netty推薦使用主從多執行緒模型,這樣就可以輕鬆的實現成千上萬的客戶端連線的處理。在海量的客戶端併發請求中,主從多執行緒模型可以通過增加SubReactor執行緒數量,充分利用多核能力提升系統吞吐量。

Reactor模型的執行機制分為四個步驟,如圖2-10所示。

  • 連線註冊,Channel建立後,註冊到Reactor執行緒中的Selector選擇器
  • 事件輪詢,輪詢Selector選擇器中已經註冊的所有Channel的I/O事件
  • 事件分發,為準備就緒的I/O事件分配相應的處理執行緒
  • 任務處理,Reactor執行緒還負責任務佇列中的非I/O任務,每個Worker執行緒從各自維護的任務佇列中取出任務非同步執行。

image-20210814175742838

圖2-10 Reactor工作流程

EventLoop事件迴圈

在Netty中,Reactor模型的事件處理器是使用EventLoop來實現的,一個EventLoop對應一個執行緒,EventLoop內部維護了一個Selector和taskQueue,分別用來處理網路IO事件以及內部任務,它的工作原理如圖2-11所示。

image-20210816142508054

圖2-11 NioEventLoop原理

EventLoop基本應用

下面這段程式碼表示EventLoop,分別實現Selector註冊以及普通任務提交功能。

public class EventLoopExample {

    public static void main(String[] args) {
        EventLoopGroup group=new NioEventLoopGroup(2);
        System.out.println(group.next()); //輸出第一個NioEventLoop
        System.out.println(group.next()); //輸出第二個NioEventLoop
        System.out.println(group.next()); //由於只有兩個,所以又會從第一個開始
        //獲取一個事件迴圈物件NioEventLoop
        group.next().register(); //註冊到selector上
        group.next().submit(()->{
            System.out.println(Thread.currentThread().getName()+"-----");
        });
    }
}

EventLoop的核心流程

基於上述的講解,理解了EventLoop的工作機制後,我們再通過一個整體的流程圖來說明,如圖2-12所示。

EventLoop是一個Reactor模型的事件處理器,一個EventLoop對應一個執行緒,其內部會維護一個selector和taskQueue,負責處理IO事件和內部任務。IO事件和內部任務執行時間百分比通過ioRatio來調節,ioRatio表示執行IO時間所佔百分比。任務包括普通任務和已經到時的延遲任務,延遲任務存放到一個優先順序佇列PriorityQueue中,執行任務前從PriorityQueue讀取所有到時的task,然後新增到taskQueue中,最後統一執行task。

image-20210816144036419

圖2-12 EventLoop工作機制

EventLoop如何實現多種Reactor模型

  • 單執行緒模式

    EventLoopGroup group=new NioEventLoopGroup(1);
    ServerBootstrap b=new ServerBootstrap();
    b.group(group);
    
  • 多執行緒模式

    EventLoopGroup group =new NioEventLoopGroup(); //預設會設定cpu核心數的2倍
    ServerBootstrap b=new ServerBootstrap();
    b.group(group);
    
  • 多執行緒主從模式

    EventLoopGroup boss=new NioEventLoopGroup(1);
    EventLoopGroup work=new NioEventLoopGroup();
    ServerBootstrap b=new ServerBootstrap();
    b.group(boss,work);
    

EventLoop實現原理

  • EventLoopGroup初始化方法,在MultithreadEventExecutorGroup.java中,根據配置的nThreads數量,構建一個EventExecutor陣列

    protected MultithreadEventExecutorGroup(int nThreads, Executor executor,
                                            EventExecutorChooserFactory chooserFactory, Object... args) {
        checkPositive(nThreads, "nThreads");
    
        if (executor == null) {
            executor = new ThreadPerTaskExecutor(newDefaultThreadFactory());
        }
    
        children = new EventExecutor[nThreads];
    
        for (int i = 0; i < nThreads; i ++) {
            boolean success = false;
            try {
                children[i] = newChild(executor, args);
            }
        }
    }
    
  • 註冊channel到多路複用器的實現,MultithreadEventLoopGroup.register方法()

    SingleThreadEventLoop ->AbstractUnsafe.register ->AbstractChannel.register0->AbstractNioChannel.doRegister()

    可以看到會把channel註冊到某一個eventLoop中的unwrappedSelector復路器中。

    protected void doRegister() throws Exception {
            boolean selected = false;
            for (;;) {
                try {
                    selectionKey = javaChannel().register(eventLoop().unwrappedSelector(), 0, this);
                    return;
                }
            }
    }
    
  • 事件處理過程,通過NioEventLoop中的run方法不斷遍歷

    protected void run() {
        int selectCnt = 0;
        for (;;) {
            try {
                int strategy;
                try {
                    //計算策略,根據阻塞佇列中是否含有任務來決定當前的處理方式
                    strategy = selectStrategy.calculateStrategy(selectNowSupplier, hasTasks());
                    switch (strategy) {
                        case SelectStrategy.CONTINUE:
                            continue;
                        case SelectStrategy.BUSY_WAIT:
                            // fall-through to SELECT since the busy-wait is not supported with NIO
                        case SelectStrategy.SELECT:
                            long curDeadlineNanos = nextScheduledTaskDeadlineNanos();
                            if (curDeadlineNanos == -1L) {
                                curDeadlineNanos = NONE; // nothing on the calendar
                            }
                            nextWakeupNanos.set(curDeadlineNanos);
                            try {
                                if (!hasTasks()) { //如果佇列中資料為空,則呼叫select查詢就緒事件
                                    strategy = select(curDeadlineNanos);
                                }
                            } finally {
                                nextWakeupNanos.lazySet(AWAKE);
                            }
                        default:
                    }
                }
                selectCnt++;
                cancelledKeys = 0;
                needsToSelectAgain = false;
                   /* ioRatio調節連線事件和內部任務執行事件百分比
                    * ioRatio越大,連線事件處理佔用百分比越大 */
                final int ioRatio = this.ioRatio;
                boolean ranTasks;
                if (ioRatio == 100) {
                    try {
                        if (strategy > 0) { //處理IO時間
                            processSelectedKeys();
                        }
                    } finally {
                        //確保每次都要執行佇列中的任務
                        ranTasks = runAllTasks();
                    }
                } else if (strategy > 0) {
                    final long ioStartTime = System.nanoTime();
                    try {
                        processSelectedKeys();
                    } finally {
                        // Ensure we always run tasks.
                        final long ioTime = System.nanoTime() - ioStartTime;
                        ranTasks = runAllTasks(ioTime * (100 - ioRatio) / ioRatio);
                    }
                } else {
                    ranTasks = runAllTasks(0); // This will run the minimum number of tasks
                }
                if (ranTasks || strategy > 0) {
                    if (selectCnt > MIN_PREMATURE_SELECTOR_RETURNS && logger.isDebugEnabled()) {
                        logger.debug("Selector.select() returned prematurely {} times in a row for Selector {}.",
                                     selectCnt - 1, selector);
                    }
                    selectCnt = 0;
                } else if (unexpectedSelectorWakeup(selectCnt)) { // Unexpected wakeup (unusual case)
                    selectCnt = 0;
                }
            }
    }
    

服務編排層Pipeline的協調處理

通過EventLoop可以實現任務的排程,負責監聽I/O事件、訊號事件等,當收到相關事件後,需要有人來響應這些事件和資料,而這些事件是通過ChannelPipeline中所定義的ChannelHandler完成的,他們是Netty中服務編排層的核心元件。

在下面這段程式碼中,我們增加了h1和h2兩個InboundHandler,用來處理客戶端資料的讀取操作,程式碼如下。

ServerBootstrap bootstrap = new ServerBootstrap();
bootstrap.group(bossGroup, workerGroup)
    //配置Server的通道,相當於NIO中的ServerSocketChannel
    .channel(NioServerSocketChannel.class)
    //childHandler表示給worker那些執行緒配置了一個處理器,
    // 這個就是上面NIO中說的,把處理業務的具體邏輯抽象出來,放到Handler裡面
    .childHandler(new ChannelInitializer<SocketChannel>() {
        @Override
        protected void initChannel(SocketChannel socketChannel) throws Exception {
            //                            socketChannel.pipeline().addLast(new NormalMessageHandler());
            socketChannel.pipeline().addLast("h1",new ChannelInboundHandlerAdapter(){
                @Override
                public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
                    System.out.println("handler-01");
                    super.channelRead(ctx, msg);
                }
            }).addLast("h2",new ChannelInboundHandlerAdapter(){
                @Override
                public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
                    System.out.println("handler-02");
                    super.channelRead(ctx, msg);
                }
            });
        }
    });

上述程式碼構建了一個ChannelPipeline,得到如圖2-13所示的結構,每個Channel都會繫結一個ChannelPipeline,一個ChannelPipeline包含多個ChannelHandler,這些Handler會被包裝成ChannelHandlerContext加入到Pipeline構建的雙向連結串列中。

ChannelHandlerContext用來儲存ChannelHandler的上下文,它包含了ChannelHandler生命週期中的所有事件,比如connect/bind/read/write等,這樣設計的好處是,各個ChannelHandler進行資料傳遞時,前置和後置的通用邏輯就可以直接儲存到ChannelHandlerContext中進行傳遞。

image-20210816165542050

圖2-13

出站和入站操作

根據網路資料的流向,ChannelPipeline分為入站ChannelInBoundHandler和出站ChannelOutboundHandler兩個處理器,如圖2-14所示,客戶端與服務端通訊過程中,資料從客戶端發向服務端的過程叫出站,對於服務端來說,資料從客戶端流入到服務端,這個時候是入站。

image-20210812224219710

圖2-14 InBound和OutBound的關係

ChannelHandler事件觸發機制

當某個Channel觸發了IO事件後,會通過Handler進行處理,而ChannelHandler是圍繞I/O事件的生命週期來設計的,比如建立連線、讀資料、寫資料、連線銷燬等。

ChannelHandler有兩個重要的子介面實現,分別攔截資料流入和資料流出的I/O事件

  • ChannelInboundHandler
  • ChannelOutboundHandler

圖2-15中顯示的Adapter類,提供很多預設操作,比如ChannelHandler中有很多很多方法,我們使用者自定義的方法有時候不需要過載全部,只需要過載一兩個方法,那麼可以使用Adapter類,它裡面有很多預設的方法。其它框架中結尾是Adapter的類的作用也大都是如此。所以我們在使用netty的時候,往往很少直接實現ChannelHandler的介面,經常是繼承Adapter類。

image-20210816200206761
圖2-15 ChannelHandler類關係圖

ChannelInboundHandler事件回撥和觸發時機如下

事件回撥方法 觸發時機
channelRegistered Channel 被註冊到 EventLoop
channelUnregistered Channel 從 EventLoop 中取消註冊
channelActive Channel 處於就緒狀態,可以被讀寫
channelInactive Channel 處於非就緒狀態
channelRead Channel 可以從遠端讀取到資料
channelReadComplete Channel 讀取資料完成
userEventTriggered 使用者事件觸發時
channelWritabilityChanged Channel 的寫狀態發生變化

ChannelOutboundHandler時間回撥觸發時機

事件回撥方法 觸發時機
bind 當請求將channel繫結到本地地址時被呼叫
connect 當請求將channel連線到遠端節點時被呼叫
disconnect 當請求將channel從遠端節點斷開時被呼叫
close 當請求關閉channel時被呼叫
deregister 當請求將channel從它的EventLoop登出時被呼叫
read 當請求通過channel讀取資料時被呼叫
flush 當請求通過channel將入隊資料重新整理到遠端節點時呼叫
write 當請求通過channel將資料寫到遠端節點時被呼叫

事件傳播機制演示

public class NormalOutBoundHandler extends ChannelOutboundHandlerAdapter {
    private final String name;

    public NormalOutBoundHandler(String name) {
        this.name = name;
    }

    @Override
    public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise) throws Exception {
        System.out.println("OutBoundHandler:"+name);
        super.write(ctx, msg, promise);
    }
}
public class NormalInBoundHandler extends ChannelInboundHandlerAdapter {
    private final String name;
    private final boolean flush;

    public NormalInBoundHandler(String name, boolean flush) {
        this.name = name;
        this.flush = flush;
    }

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        System.out.println("InboundHandler:"+name);
        if(flush){
            ctx.channel().writeAndFlush(msg);
        }else {
            super.channelRead(ctx, msg);
        }
    }
}
ServerBootstrap bootstrap = new ServerBootstrap();
bootstrap.group(bossGroup, workerGroup)
    //配置Server的通道,相當於NIO中的ServerSocketChannel
    .channel(NioServerSocketChannel.class)
    //childHandler表示給worker那些執行緒配置了一個處理器,
    // 這個就是上面NIO中說的,把處理業務的具體邏輯抽象出來,放到Handler裡面
    .childHandler(new ChannelInitializer<SocketChannel>() {
        @Override
        protected void initChannel(SocketChannel socketChannel) throws Exception {
            socketChannel.pipeline()
                .addLast(new NormalInBoundHandler("NormalInBoundA",false))
                .addLast(new NormalInBoundHandler("NormalInBoundB",false))
                .addLast(new NormalInBoundHandler("NormalInBoundC",true));
            socketChannel.pipeline()
                .addLast(new NormalOutBoundHandler("NormalOutBoundA"))
                .addLast(new NormalOutBoundHandler("NormalOutBoundB"))
                .addLast(new NormalOutBoundHandler("NormalOutBoundC"));
        }
    });

上述程式碼執行後會得到如下執行結果

InboundHandler:NormalInBoundA
InboundHandler:NormalInBoundB
InboundHandler:NormalInBoundC
OutBoundHandler:NormalOutBoundC
OutBoundHandler:NormalOutBoundB
OutBoundHandler:NormalOutBoundA

當客戶端向服務端傳送請求時,會觸發服務端的NormalInBound呼叫鏈,按照排列順序逐個呼叫Handler,當InBound處理完成後呼叫WriteAndFlush方法向客戶端寫回資料,此時會觸發NormalOutBoundHandler呼叫鏈的write事件。

從執行結果來看,Inbound和Outbound的事件傳播方向是不同的,Inbound傳播方向是head->tail,Outbound傳播方向是Tail-Head。

異常傳播機制

ChannelPipeline時間傳播機制是典型的責任鏈模式,那麼有同學肯定會有疑問,如果這條鏈路中某個handler出現異常,那會導致什麼問題呢?我們對前面的例子修改NormalInBoundHandler

public class NormalInBoundHandler extends ChannelInboundHandlerAdapter {
    private final String name;
    private final boolean flush;

    public NormalInBoundHandler(String name, boolean flush) {
        this.name = name;
        this.flush = flush;
    }

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        System.out.println("InboundHandler:"+name);
        if(flush){
            ctx.channel().writeAndFlush(msg);
        }else {
            //增加異常處理
            throw new RuntimeException("InBoundHandler:"+name);
        }
    }
}

這個時候一旦丟擲異常,會導致整個請求鏈被中斷,在ChannelHandler中提供了一個異常捕獲方法,這個方法可以避免ChannelHandler鏈中某個Handler異常導致請求鏈路中斷。它會把異常按照Handler鏈路的順序從head節點傳播到Tail節點。如果使用者最終沒有對異常進行處理,則最後由Tail節點進行統一處理

修改NormalInboundHandler,重寫下面這個方法。

@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
    System.out.println("InboundHandlerException:"+name);
    super.exceptionCaught(ctx, cause);
}

在Netty應用開發中,好的異常處理非常重要能夠讓問題排查變得很輕鬆,所以我們可以通過一種統一攔截的方式來解決異常處理問題。

新增一個複合處理器實現類

public class ExceptionHandler extends ChannelDuplexHandler {

    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        if(cause instanceof RuntimeException){
            System.out.println("處理業務異常");
        }
        super.exceptionCaught(ctx, cause);
    }
}

把新增的ExceptionHandler新增到ChannelPipeline中

bootstrap.group(bossGroup, workerGroup)
    //配置Server的通道,相當於NIO中的ServerSocketChannel
    .channel(NioServerSocketChannel.class)
    //childHandler表示給worker那些執行緒配置了一個處理器,
    // 這個就是上面NIO中說的,把處理業務的具體邏輯抽象出來,放到Handler裡面
    .childHandler(new ChannelInitializer<SocketChannel>() {
        @Override
        protected void initChannel(SocketChannel socketChannel) throws Exception {
            socketChannel.pipeline()
                .addLast(new NormalInBoundHandler("NormalInBoundA",false))
                .addLast(new NormalInBoundHandler("NormalInBoundB",false))
                .addLast(new NormalInBoundHandler("NormalInBoundC",true));
            socketChannel.pipeline()
                .addLast(new NormalOutBoundHandler("NormalOutBoundA"))
                .addLast(new NormalOutBoundHandler("NormalOutBoundB"))
                .addLast(new NormalOutBoundHandler("NormalOutBoundC"))
                .addLast(new ExceptionHandler());
        }
    });

最終,我們就能夠實現異常的統一處理。

版權宣告:本部落格所有文章除特別宣告外,均採用 CC BY-NC-SA 4.0 許可協議。轉載請註明來自 Mic帶你學架構
如果本篇文章對您有幫助,還請幫忙點個關注和贊,您的堅持是我不斷創作的動力。歡迎關注「跟著Mic學架構」公眾號公眾號獲取更多技術乾貨!

相關文章