Flink的DataSource三部曲之三:自定義

程式設計師欣宸發表於2020-11-07

歡迎訪問我的GitHub

https://github.com/zq2599/blog_demos

內容:所有原創文章分類彙總及配套原始碼,涉及Java、Docker、Kubernetes、DevOPS等;

本篇概覽

本文是《Flink的DataSource三部曲》的終篇,前面都是在學習Flink已有的資料來源功能,但如果這些不能滿足需要,就要自定義資料來源(例如從資料庫獲取資料),也就是今天實戰的內容,如下圖紅框所示:

在這裡插入圖片描述

Flink的DataSource三部曲文章連結

  1. 《Flink的DataSource三部曲之一:直接API》
  2. 《Flink的DataSource三部曲之二:內建connector》
  3. 《Flink的DataSource三部曲之三:自定義》

環境和版本

本次實戰的環境和版本如下:

  1. JDK:1.8.0_211
  2. Flink:1.9.2
  3. Maven:3.6.0
  4. 作業系統:macOS Catalina 10.15.3 (MacBook Pro 13-inch, 2018)
  5. IDEA:2018.3.5 (Ultimate Edition)

在伺服器上搭建Flink服務

  1. 前面兩章的程式都是在IDEA上執行的,本章需要通過Flink的web ui觀察執行結果,因此要單獨部署Flink服務,我這裡是在CentOS環境通過docker-compose部署的,以下是docker-compose.yml的內容,用於參考:
version: "2.1"
services:
  jobmanager:
    image: flink:1.9.2-scala_2.12
    expose:
      - "6123"
    ports:
      - "8081:8081"
    command: jobmanager
    environment:
      - JOB_MANAGER_RPC_ADDRESS=jobmanager
  taskmanager1:
    image: flink:1.9.2-scala_2.12
    expose:
      - "6121"
      - "6122"
    depends_on:
      - jobmanager
    command: taskmanager
    links:
      - "jobmanager:jobmanager"
    environment:
      - JOB_MANAGER_RPC_ADDRESS=jobmanager
  taskmanager2:
    image: flink:1.9.2-scala_2.12
    expose:
      - "6121"
      - "6122"
    depends_on:
      - jobmanager
    command: taskmanager
    links:
      - "jobmanager:jobmanager"
    environment:
      - JOB_MANAGER_RPC_ADDRESS=jobmanager
  1. 下圖是我的Flink情況,有兩個Task Maganer,共八個Slot全部可用:

在這裡插入圖片描述

原始碼下載

如果您不想寫程式碼,整個系列的原始碼可在GitHub下載到,地址和連結資訊如下表所示(https://github.com/zq2599/blog_demos):

名稱 連結 備註
專案主頁 https://github.com/zq2599/blog_demos 該專案在GitHub上的主頁
git倉庫地址(https) https://github.com/zq2599/blog_demos.git 該專案原始碼的倉庫地址,https協議
git倉庫地址(ssh) git@github.com:zq2599/blog_demos.git 該專案原始碼的倉庫地址,ssh協議

這個git專案中有多個資料夾,本章的應用在flinkdatasourcedemo資料夾下,如下圖紅框所示:

在這裡插入圖片描述

準備完畢,開始開發;

實現SourceFunctionDemo介面的DataSource

  1. 從最簡單的開始,開發一個不可並行的資料來源並驗證;
  2. 實現SourceFunction介面,在工程flinkdatasourcedemo中增加SourceFunctionDemo.java:
package com.bolingcavalry.customize;

import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.SourceFunction;
import org.apache.flink.streaming.api.windowing.time.Time;

public class SourceFunctionDemo {
    public static void main(String[] args) throws Exception {
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        //並行度為2
        env.setParallelism(2);

        DataStream<Tuple2<Integer,Integer>> dataStream = env.addSource(new SourceFunction<Tuple2<Integer, Integer>>() {

            private volatile boolean isRunning = true;

            @Override
            public void run(SourceContext<Tuple2<Integer, Integer>> ctx) throws Exception {
                int i = 0;
                while (isRunning) {
                    ctx.collect(new Tuple2<>(i++ % 5, 1));
                    Thread.sleep(1000);
                    if(i>9){
                        break;
                    }
                }
            }

            @Override
            public void cancel() {
                isRunning = false;
            }
        });

        dataStream
                .keyBy(0)
                .timeWindow(Time.seconds(2))
                .sum(1)
                .print();

        env.execute("Customize DataSource demo : SourceFunction");
    }
}
  1. 從上述程式碼可見,給addSource方法傳入一個匿名類例項,該匿名類實現了SourceFunction介面;
  2. 實現SourceFunction介面只需實現run和cancel方法;
  3. run方法產生資料,這裡為了簡答操作,每隔一秒產生一個Tuple2例項,由於接下來的運算元中有keyBy操作,因此Tuple2的第一個欄位始終保持著5的餘數,這樣可以多幾個key,以便分散到不同的slot中;
  4. 為了核對資料是否準確,這裡並沒有無限傳送資料,而是僅傳送了10個Tuple2例項;
  5. cancel是job被取消時執行的方法;
  6. 整體並行度顯式設定為2;
  7. 編碼完成後,執行mvn clean package -U -DskipTests構建,在target目錄得到檔案flinkdatasourcedemo-1.0-SNAPSHOT.jar
  8. 在Flink的web UI上傳flinkdatasourcedemo-1.0-SNAPSHOT.jar,並指定執行類,如下圖紅框所示:

在這裡插入圖片描述

    1. 任務執行完成後,在Completed Jobs頁面可以看到,DataSource的並行度是1(紅框),對應的SubTask一共傳送了10條記錄(藍框),這和我們的程式碼是一致的;

在這裡插入圖片描述

  1. 再來看消費的子任務,如下圖,紅框顯示並行度是2,這和前面程式碼中的設定是一致的,藍框顯示兩個子任務一共收到10條資料記錄,和上游發出的數量一致:

在這裡插入圖片描述

  1. 接下來嘗試多並行度的DataSource;

實現ParallelSourceFunction介面的DataSource

  1. 如果自定義DataSource中有複雜的或者耗時的操作,那麼增加DataSource的並行度,讓多個SubTask同時進行這些操作,可以有效提升整體吞吐量(前提是硬體資源充裕);
  2. 接下來實戰可以並行執行的DataSource,原理是DataSoure實現ParallelSourceFunction介面,程式碼如下,可見和SourceFunctionDemo幾乎一樣,只是addSource方發入參不同,該入參依然是匿名類,不過實現的的介面變成了ParallelSourceFunction:
package com.bolingcavalry.customize;

import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.ParallelSourceFunction;
import org.apache.flink.streaming.api.windowing.time.Time;

public class ParrelSourceFunctionDemo {
    public static void main(String[] args) throws Exception {
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        //並行度為2
        env.setParallelism(2);

        DataStream<Tuple2<Integer,Integer>> dataStream = env.addSource(new ParallelSourceFunction<Tuple2<Integer, Integer>>() {

            private volatile boolean isRunning = true;

            @Override
            public void run(SourceContext<Tuple2<Integer, Integer>> ctx) throws Exception {
                int i = 0;
                while (isRunning) {
                    ctx.collect(new Tuple2<>(i++ % 5, 1));
                    Thread.sleep(1000);
                    if(i>9){
                        break;
                    }
                }
            }

            @Override
            public void cancel() {
                isRunning = false;
            }
        });

        dataStream
                .keyBy(0)
                .timeWindow(Time.seconds(2))
                .sum(1)
                .print();

        env.execute("Customize DataSource demo : ParallelSourceFunction");
    }
}
  1. 編碼完成後,執行mvn clean package -U -DskipTests構建,在target目錄得到檔案flinkdatasourcedemo-1.0-SNAPSHOT.jar
  2. 在Flink的web UI上傳flinkdatasourcedemo-1.0-SNAPSHOT.jar,並指定執行類,如下圖紅框所示:

在這裡插入圖片描述
5. 任務執行完成後,在Completed Jobs頁面可以看到,如今DataSource的並行度是2(紅框),對應的SubTask一共傳送了20條記錄(藍框),這和我們的程式碼是一致的,綠框顯示兩個SubTask的Task Manager是同一個:

在這裡插入圖片描述
6. 為什麼DataSource一共傳送了20條記錄?因為每個SubTask中都有一份ParallelSourceFunction匿名類的例項,對應的run方法分別被執行,因此每個SubTask都傳送了10條;
7. 再來看消費資料的子任務,如下圖,紅框顯示並行度與程式碼中設定的數量是一致的,藍框顯示兩個SubTask一共消費了20條記錄,和資料來源發出的記錄數一致,另外綠框顯示兩個SubTask的Task Manager是同一個,而且和DataSource的TaskManager是同一個,因此整個job都是在同一個TaskManager進行的,沒有跨機器帶來的額外代價:

在這裡插入圖片描述
8. 接下來要實踐的內容,和另一個重要的抽象類有關;

繼承抽象類RichSourceFunction的DataSource

  1. 對RichSourceFunction的理解是從繼承關係開始的,如下圖,SourceFunction和RichFunction的特性最終都體現在RichSourceFunction上,SourceFunction的特性是資料的生成(run方法),RichFunction的特性是對資源的連線和釋放(open和close方法):

在這裡插入圖片描述
2. 接下來開始實戰,目標是從MySQL獲取資料作為DataSource,然後消費這些資料;
3. 請提前準備好可用的MySql資料庫,然後執行以下SQL,建立庫、表、記錄:

DROP DATABASE IF EXISTS flinkdemo;
CREATE DATABASE IF NOT EXISTS flinkdemo;
USE flinkdemo;

SELECT 'CREATING DATABASE STRUCTURE' as 'INFO';

DROP TABLE IF EXISTS `student`;
CREATE TABLE `student` (
  `id` int(11) unsigned NOT NULL AUTO_INCREMENT,
  `name` varchar(25) COLLATE utf8_bin DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=5 DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

INSERT INTO `student` VALUES ('1', 'student01'), ('2', 'student02'), ('3', 'student03'), ('4', 'student04'), ('5', 'student05'), ('6', 'student06');
COMMIT;
  1. 在pom.xml中增加mysql依賴:
<dependency>
  <groupId>mysql</groupId>
  <artifactId>mysql-connector-java</artifactId>
  <version>5.1.34</version>
</dependency>
  1. 新增MySQLDataSource.java,內容如下:
package com.bolingcavalry.customize;

import com.bolingcavalry.Student;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.functions.source.RichSourceFunction;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;

public class MySQLDataSource extends RichSourceFunction<Student> {

    private Connection connection = null;

    private PreparedStatement preparedStatement = null;

    private volatile boolean isRunning = true;

    @Override
    public void open(Configuration parameters) throws Exception {
        super.open(parameters);

        if(null==connection) {
            Class.forName("com.mysql.jdbc.Driver");
            connection = DriverManager.getConnection("jdbc:mysql://192.168.50.43:3306/flinkdemo?useUnicode=true&characterEncoding=UTF-8", "root", "123456");
        }

        if(null==preparedStatement) {
            preparedStatement = connection.prepareStatement("select id, name from student");
        }
    }

    /**
     * 釋放資源
     * @throws Exception
     */
    @Override
    public void close() throws Exception {
        super.close();

        if(null!=preparedStatement) {
            try {
                preparedStatement.close();
            } catch (Exception exception) {
                exception.printStackTrace();
            }
        }

        if(null==connection) {
            connection.close();
        }
    }

    @Override
    public void run(SourceContext<Student> ctx) throws Exception {
        ResultSet resultSet = preparedStatement.executeQuery();
        while (resultSet.next() && isRunning) {
            Student student = new Student();
            student.setId(resultSet.getInt("id"));
            student.setName(resultSet.getString("name"));
            ctx.collect(student);
        }
    }

    @Override
    public void cancel() {
        isRunning = false;
    }
}
  1. 上面的程式碼中,MySQLDataSource繼承了RichSourceFunction,作為一個DataSource,可以作為addSource方法的入參;
  2. open和close方法都會被資料來源的SubTask呼叫,open負責建立資料庫連線物件,close負責釋放資源;
  3. open方法中直接寫死了資料庫相關的配置(不可取);
  4. run方法在open之後被呼叫,作用和之前的DataSource例子一樣,負責生產資料,這裡是用前面準備好的preparedStatement物件直接去資料庫取資料;
  5. 接下來寫個Demo類使用MySQLDataSource:
package com.bolingcavalry.customize;

import com.bolingcavalry.Student;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

public class RichSourceFunctionDemo {

    public static void main(String[] args) throws Exception {
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        //並行度為2
        env.setParallelism(2);

        DataStream<Student> dataStream = env.addSource(new MySQLDataSource());
        dataStream.print();

        env.execute("Customize DataSource demo : RichSourceFunction");
    }
}
  1. 從上述程式碼可見,MySQLDataSource例項傳入addSource方法即可建立資料集;
  2. 像之前那樣,編譯構建、提交到Flink、指定任務類,即可開始執行此任務;
  3. 執行結果如下圖,DataSource的並行度是1,一共傳送六條記錄,即student表的所有記錄:

在這裡插入圖片描述
14. 處理資料的SubTask一共兩個,各處理三條訊息:

在這裡插入圖片描述
15. 由於程式碼中對資料集執行了print(),因此在TaskManager控制檯看到資料輸出如下圖紅框所示:

在這裡插入圖片描述

關於RichParallelSourceFunction

  1. 實戰到了這裡,還剩RichParallelSourceFunction這個抽象類我們還沒有嘗試過,但我覺得這個類可以不用在文中多說了,我們們把RichlSourceFunction和RichParallelSourceFunction的類圖放在一起看看:

在這裡插入圖片描述
2. 從上圖可見,在RichFunction繼承關係上,兩者一致,在SourceFunction的繼承關係上,RichlSourceFunction和RichParallelSourceFunction略有不同,RichParallelSourceFunction走的是ParallelSourceFunction這條線,而SourceFunction和ParallelSourceFunction的區別,前面已經講過了,因此,結果不言而喻:繼承RichParallelSourceFunction的DataSource的並行度是可以大於1的
3. 讀者您如果有興趣,可以將前面的MySQLDataSource改成繼承RichParallelSourceFunction再試試,DataSource的並行度會超過1,但是絕不是隻有這一點變化,DAG圖顯示Flink還會做一些Operator Chain處理,但這不是本章要關注的內容,只能說結果是正確的(兩個DataSource的SubTask,一共傳送12條記錄),建議您試試;

至此,《Flink的DataSource三部曲》系列就全部完成了,好的開始是成功的一半,在拿到資料後,後面還有很多知識點要學習和掌握,接下來的文章會繼續深入Flink的奇妙之旅;

歡迎關注公眾號:程式設計師欣宸

微信搜尋「程式設計師欣宸」,我是欣宸,期待與您一同暢遊Java世界...
https://github.com/zq2599/blog_demos

相關文章