Docker ELK+Filebeat安裝與配置

qijian0503發表於2018-09-21

環境說明

  • linux
    CentOS Linux release 7.5.1804 (Core)
  • docker
    Docker version 1.13.1
  • elk
    sebp/elk latest
  • filebeat
    filebeat-6.4.0

elk跟filebeat在同一臺機器上

架構

  • Elasticsearch
    一個近乎實時查詢的全文搜尋引擎。Elasticsearch 的設計目標就是要能夠處理和搜尋巨量的日誌資料。

  • Logstash
    讀取原始日誌,並對其進行分析和過濾,然後將其轉發給其他元件(比如 Elasticsearch)進行索引或儲存。Logstash 支援豐富的 Input 和 Output 型別,能夠處理各種應用的日誌。

  • Kibana
    一個基於 JavaScript 的 Web 圖形介面程式,專門用於視覺化 Elasticsearch 的資料。Kibana 能夠查詢 Elasticsearch 並通過豐富的圖表展示結果。使用者可以建立 Dashboard 來監控系統的日誌。

  • Filebeat
    引入Filebeat作為日誌蒐集器,主要是為了解決Logstash開銷大的問題。相比Logstash,Filebeat 所佔系統的 CPU 和記憶體幾乎可以忽略不計。

日誌處理流程:
Filebeat將日誌傳送給Logstash進行分析和過濾,然後由Logstash轉發給Elasticsearch,最後由Kibana視覺化Elasticsearch 的資料

elk流程圖

安裝 ELK 套件

ELK 的部署方案可以非常靈活,在規模較大的生產系統中,ELK 有自己的叢集,實現了高可用和負載均衡。我們的目標是在最短的時間內學習並實踐 ELK,因此將採用最小部署方案:在容器中搭建 ELK。

  • 執行ELK映象需要vm.max_map_count至少需要262144記憶體
切換到root使用者修改配置sysctl.conf
vi /etc/sysctl.conf
在尾行新增以下內容   
vm.max_map_count=262144
並執行命令
sysctl -p
複製程式碼

elk啟動的時候可能會提示如下錯誤:
max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
檢視容器日誌:docker logs 容器ID
參考連結:blog.csdn.net/jiankunking…

  • 安裝docker
線上安裝吧,如果自定義安裝請搜尋下安裝方法,這裡就不再描述了
yum install docker   
啟用服務
systemctl start docker
開機啟動
systemctl enable docker
複製程式碼
  • 執行ELK映象
sudo docker run -p 5601:5601 -p 9200:9200 -p 5044:5044 -it --name elk sebp/elk
複製程式碼
  • 配置logstash
檢視容器資訊
docker ps -a

進入容器
sudo docker exec -it elk /bin/bash
或
sudo docker exec -it 容器ID /bin/bash

修改02-beats-input.conf
cd /etc/logstash/conf.d/
vi 02-beats-input.conf
複製程式碼

/etc/logstash/conf.d/02-beats-input.conf修改成如下圖所示:

這裡vi命令使用有點問題,我是通過DEL鍵一行一行的刪掉了那3行的

image.png

將以下三行刪除掉。這三行的意思是是否使用證照,本例是不使用證照的,如果你需要使用證照,將logstash.crt拷貝到客戶端,然後在filebeat.yml裡面新增路徑即可

ssl => true 
ssl_certificate => "/pki/tls/certs/logstash.crt"
ssl_key => "/pki/tls/private/logstash.key"
複製程式碼

注意:sebp/elk docker是自建立了一個證照logstash.crt,預設使用*通配配符,如果你使用證照,filebeat.yml使用的伺服器地址必須使用域名,不能使用IP地址,否則會報錯

這裡如果不去掉這三行配置的話,在後面啟動filebeat時,會提示如下錯誤:

2018-09-12T10:01:29.770+0800	ERROR	logstash/async.go:252	Failed to publish events caused by: lumberjack protocol error
2018-09-12T10:01:29.775+0800	ERROR	logstash/async.go:252	Failed to publish events caused by: client is not connected
2018-09-12T10:01:30.775+0800	ERROR	pipeline/output.go:109	Failed to publish events: client is not connected
複製程式碼
  • 重啟elk容器
docker restart 容器ID
複製程式碼
  • kibana視覺化頁面

在瀏覽器輸入:http://ip:5601 ,稍等一會即可看到kibana啟動成功管理頁面

image.png

Elasticsearch的JSON介面:http://[Host IP]:9200/_search?pretty

安裝Filebeat

filebeat有多種安裝方式,我這裡採用rpm包的安裝方式,可自動註冊為systemd的服務

  • 下載filebeat的rpm包
cd /opt/softwares
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.4.0-x86_64.rpm
複製程式碼

或者到官網檢視最新版本直接下載:www.elastic.co/downloads/b…

image.png

  • 安裝filebeat
rpm -ivh filebeat-6.4.0-x86_64.rpm
複製程式碼
  • 配置filebeat
cd /etc/filebeat
vi filebeat.yml
複製程式碼

配置改成如下所示:

#=========================== Filebeat inputs =============================

filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /opt/datas/logs/*/*.log
  tags: ["測試環境"]
  multiline:
    pattern: '^\s*(\d{4}|\d{2})\-(\d{2}|[a-zA-Z]{3})\-(\d{2}|\d{4})'
    # pattern: '^\s*("{)'
    negate: true
    match: after
    max_lines: 1000
    timeout: 30s
複製程式碼

enabled:filebeat 6.0後,enabled預設為關閉,必須要修改成true
paths:為你想要抓取分析的日誌所在路徑
multiline:如果不進行該合併處理操作的話,那麼當採集的日誌很長或是像輸出xml格式等日誌,就會出現採集不全或是被分割成多條的情況
pattern:配置的正規表示式,指定匹配的表示式(匹配以 2017-11-15 08:04:23:889 時間格式開頭的字串),如果匹配不到的話,就進行合併行。
參考連結

image.png

配置改為上圖所示。
註釋掉Elasticsearch output,開啟Logstash output。
hosts:elk所在機器IP地址
如果直接將日誌傳送到Elasticsearc,請編輯此行:Elasticsearch output
如果直接將日誌傳送到Logstash,請編輯此行:Logstash output
只能使用一行輸出,其它的注掉即可

  • 啟動filebeat服務
啟動filebeat
systemctl start filebeat.service
檢視filebeat狀態
systemctl status filebeat.service
檢視filebeat日誌
tail -f /var/log/filebeat/filebeat
複製程式碼

參考連結:www.jianshu.com/p/7ca38fa88…

kibana配置

點選左上角的Discover按鈕,如下圖所示,提示建立“index pattern”:

image.png
如下圖,紅框中輸入filebeat-*,再點選Next step:
image.png
如下圖,下拉框中選擇@timestamp,再點選Create index pattern
image.png
在彈出的頁面上,再次點選左上角的Discover按鈕,然後點選右上角的Last 15 minutes,如下圖:
image.png
此時頁面上會顯示最近15分鐘內的日誌,如果最近15分鐘內沒有任何日誌上報,您也可以點選下圖紅框中的Today按鈕,展示今天的所有日誌:

image.png

參考連結:
blog.csdn.net/qq_39284787…
blog.csdn.net/boling_cava…
www.cnblogs.com/CloudMan6/p…
blog.csdn.net/boling_cava…

相關文章