logstash的安裝使用、收集json日誌、csv日誌總結
1、logstash在官網直接下載解壓即可使用
[elk_test@hadoop2 14:20 ~]$tar -zxvf logstash-5.6.3.tar.gz
[elk_test@hadoop2 14:21 ~]$cd logstash-5.6.3
啟動logstash監控檔案。
./bin/logstash -f my.config
其中 -f 引數後面接你配置檔案,在下面2和3中介紹了json和csv兩種簡單的配置方式,想要複雜的配置可以去參考官網一些引數介紹說明。
2、json日誌收集配置
格式有樣例:檔案中每一行都是json格式的,其中欄位如果有type會覆蓋你index/type/id 中type值,這個你要小心了。
{"10190":0,"10071":0,"10191":0,"10070":0,"48":"136587","type":"136587","10018":0}
input:對應輸入的配置,其中path是監控的文**件路勁, codec編碼個格式
output:輸出格式,stdout 輸出到控制檯
其中elasticsearch : { hosts => "192.168.0.153:9200" } 對應輸出到elasticsearch,hosts是elasticsearch安裝地址。
input {
file {
path => ["/home/elk_test/logstash-5.6.3/logfile"]
codec => json {
charset => "UTF-8"
}
}
}
output {
stdout {
codec => rubydebug
}
elasticsearch {
hosts => "192.168.0.153:9200"
}
}
3、csv日誌收集
日誌樣例:逗號分隔的日誌,每一行資料格式如下,瞭解一下csv格式就知曉了。
3202,UA3202,92509,122774,2,106200,0
path :檔案路勁
columns:欄位名字,收集到日誌每個值value對應的key separator: 分隔符,csv當然是逗號,實際使用什麼分隔符就填什麼分隔符。
input {
file {
type => "csv_log"
path => ["/home/elk_test/logstash-5.6.3/logfile"]
start_position => "beginning"
}
}
filter {
if [type] == "csv_log" {
csv {
separator => ","
columns => ["ip", "a", "date", "time", "b", "latency", "status", "size", "method", "url", "file"]
}
}
}
output {
if [type] == "csv_log" {
logservice {
codec => "json"
endpoint => "***"
project => "***"
logstore => "***"
topic => ""
source => ""
access_key_id => "***"
access_key_secret => "***"
max_send_retry => 10
}
}
}
相關文章
- logstash收集springboot日誌Spring Boot
- (四)Logstash收集、解析日誌方法
- 日誌分析平臺ELK之日誌收集器logstash
- Elasticsearch+kibana+logstash 搭建日誌收集分析平臺Elasticsearch
- 使用Kafka做日誌收集Kafka
- SpringBoot使用ELK日誌收集Spring Boot
- logstash 收集 http POST請求中的json日誌時,欄位衝突問題HTTPJSON
- 日誌分析平臺ELK之日誌收集器logstash常用外掛配置
- MySQL的日誌總結MySql
- ELK日誌系統之使用Rsyslog快速方便的收集Nginx日誌Nginx
- rsyslog日誌總結
- Logstash 配置Java日誌格式的方法Java
- Vector + ClickHouse 收集日誌
- rac日誌收集方法
- 日誌收集之filebeat使用介紹
- 使用Fluentd + Elasticsearch收集訪問日誌Elasticsearch
- Docker安裝ELK並實現JSON格式日誌分析DockerJSON
- Linux-ELK日誌收集Linux
- 關於k8s叢集容器日誌收集的總結K8S
- [Mysql]日誌刷盤總結MySql
- 日誌主機安裝指南
- Syslogserver(日誌伺服器) 安裝和使用GseServer伺服器
- Filebeat 收集日誌的那些事兒
- 日誌列印的碎碎念總結
- TFA-收集日誌及分析
- 通過 Systemd Journal 收集日誌
- ELK+logspout收集Docker日誌Docker
- ABP 使用ElasticSearch、Kibana、Docker 進行日誌收集ElasticsearchDocker
- 日誌篇:模組日誌總體介紹
- ELK監控nginx日誌總結Nginx
- 日誌總結 - 2018-05-29
- .NetCore使用Docker安裝ElasticSearch、Kibana 記錄日誌NetCoreDockerElasticsearch
- Kibana+Logstash+Elasticsearch 日誌查詢系統Elasticsearch
- 通過helm部署EFK收集應用日誌,ingress-nginx日誌解析。應用日誌Nginx
- 日誌分析平臺ELK之日誌收集器filebeat
- 微服務下,使用ELK做日誌收集及分析微服務
- MySQL日誌收集之Filebeat和Logstsh的一鍵安裝配置(ELK架構)MySql架構
- 鐵威馬nas如何收集日誌
- filebeat 收集nginx日誌輸出到kafkaNginxKafka