spark 原始碼分析之十三 -- SerializerManager剖析

輪子媽發表於2019-07-15

對SerializerManager的說明:

它是為各種Spark元件配置序列化,壓縮和加密的元件,包括自動選擇用於shuffle的Serializer。spark中的資料在network IO 或 local disk IO傳輸過程中。都需要序列化。其預設的 Serializer 是 org.apache.spark.serializer.JavaSerializer,在一定條件下,可以使用kryo,即org.apache.spark.serializer.KryoSerializer。

 

支援的兩種序列化方式

即值的型別是八種基本型別中一種或null或String,都會使用kryo,否則使用預設序列化方式,即java序列化方式。

 

它還負責讀寫Block流是否使用壓縮:

 

資料流是否支援壓縮

預設情況下:

其中,如果使用壓縮,預設的壓縮是 lz4, 可以通過引數 spark.io.compression.codec 來配置。它支援的所有壓縮型別如下:

讀寫資料流如何支援壓縮

其中,支援壓縮的InputStream和OutputStream是對原來的InputStream和OutputStream做了包裝。我們以LZ4BlockOutputStream為例說明。

呼叫如下函式返回支援壓縮的OutputStream:

首先,LZ4BlockOutputStream的繼承關係如下:

 

被包裝的類被放到了FilterOutputStream類的out 欄位中,如下:

outputStream核心方法就是write。直接來看LZ4BlockOutputStream的write方法:

 

其中buffer是一個byte 陣列,預設是 32k,可以通過spark.io.compression.lz4.blockSize 引數來指定,在LZ4BlockOutputStream類中用blockSize儲存。

 

重點看flushBufferedData方法:

 

方法內部實現思路如下:

外部寫入到buffer中的資料經過compressor壓縮到compressorBuffer中,然後再寫入一些magic,最終將壓縮的buffer寫入到out中,write操作結束。

 

可見,資料的壓縮是由 LZ4BlockOutputStream 負責的,壓縮之後的資料被寫入到目標outputStream中。

相關文章