Flume實時監控 單個追加檔案

zhaoxiaoba123發表於2020-10-02

1)案例需求:實時監控 Hive 日誌,並上傳到 HDFS 中
2)需求分析:
在這裡插入圖片描述
3)實現步驟:
1.Flume 要想將資料輸出到 HDFS,須持有 Hadoop 相關 jar 包 拷貝到/opt/module/flume/lib 資料夾下。
在這裡插入圖片描述
2.建立 flume-file-hdfs.conf 檔案
建立檔案
在這裡插入圖片描述
注:要想讀取 Linux 系統中的檔案,就得按照 Linux 命令的規則執行命令。由於 Hive 日誌 在 Linux 系統中所以讀取檔案的型別選擇:exec 即 execute 執行的意思。表示執行 Linux 命令來讀取檔案。

新增如下內容
在這裡插入圖片描述
在這裡插入圖片描述
在這裡插入圖片描述

3.執行 Flume
在這裡插入圖片描述
4.開啟 Hadoop 和 Hive 並操作 Hive 產生日誌
在這裡插入圖片描述
5.在 HDFS 上檢視檔案。
在這裡插入圖片描述

相關文章