轉:基於Spark的公安大資料實時運維技術實踐
公安行業存在數以萬計的前後端裝置,前端裝置包括相機、檢測器及感應器,後端裝置包括各級中心機房中的伺服器、應用伺服器、網路裝置及機房動力系統,數量巨大、種類繁多的裝置給公安內部運維管理帶來了巨大挑戰。傳統透過ICMP/SNMP、Trap/Syslog等工具對裝置進行診斷分析的方式已不能滿足實際要求,由於公安內部運維管理的特殊性,現行透過ELK等架構的方式同樣也滿足不了需要。為尋求合理的方案,我們將目光轉向開源架構,構建了一套適用於公安行業的實時運維管理平臺。
實時運維平臺整體架構
- 資料採集層:Logstash+Flume,負責在不同場景下收集、過濾各類前後端硬體裝置輸出的Snmp Trap、Syslog日誌資訊以及應用伺服器自身產生的系統和業務日誌;
- 資料傳輸層:採用高吞吐的分散式訊息佇列Kafka叢集,保證匯聚的日誌、訊息的可靠傳輸;
- 資料處理層:由Spark實時Pull Kafka資料,透過Spark Streaming以及RDD操作進行資料流的處理以及邏輯分析;
- 資料儲存層:實時資料存入MySQL中便於實時的業務應用和展示;全量資料存入ES以及HBase中便於後續的檢索分析;
- 業務服務層:基於儲存層,後續的整體業務應用涵蓋了APM、網路監控、拓撲、告警、工單、CMDB等。
整體系統涉及的主要開源框架情況如下:
另外,整體環境基於JDK 8以及Scala 2.10.4。公安系統裝置種類繁多,接下來將以交換機Syslog日誌為例,詳細介紹日誌處理分析的整體流程。
圖1 公安實時運維平臺整體架構
Flume+Logstash日誌收集
Flume是Cloudera貢獻的一個分散式、可靠及高可用的海量日誌採集系統,支援定製各類Source(資料來源)用於資料收集,同時提供對資料的簡單處理以及透過快取寫入Sink(資料接收端)的能力。
Flume中,Source、Channel及Sink的配置如下:
# 為該Flume Agent的source、channel以及sink命名 a1.sources = r1 a1.sinks = k1
a1.channels = c1 # 配置Syslog源 a1.sources.r1.type = syslogtcp
a1.sources.r1.port = 5140 a1.sources.r1.host = localhost # Kafka Sink的相關配置 a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink a1.sinks.k1.topic = syslog-kafka
a1.sinks.k1.brokerList = gtcluster-slave01:9092 a1.sinks.k1.requiredAcks = 1 a1.sinks.k1.batchSize = 20 a1.sinks.k1.channel = c1 # Channel基於記憶體作為快取 a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100 # 將Source以及Sink繫結至Channel a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
該配置透過syslog source配置localhost tcp 5140埠來接收網路裝置傳送的Syslog資訊,event快取在記憶體中,再透過KafkaSink將日誌傳送到kafka叢集中名為“syslog-kafka”的topic中。
Logstash來自Elastic公司,專為收集、分析和傳輸各類日誌、事件以及非結構化的資料所設計。它有三個主要功能:事件輸入(Input)、事件過濾器(Filter)以及事件輸出(Output),在字尾為.conf的配置檔案中設定,本例中Syslog配置如下:
# syslog.conf input {
Syslog {
port => "514" }
}
filter {
}
output {
kafka {
bootstrap_servers => "192.168.8.65:9092" topic_id => "syslog-kafka" compression_type => "snappy" codec => plain {
format => "%{host} %{@timestamp} %{message}" }
}
}
Input(輸入)外掛用於指定各種資料來源,本例中的Logstash透過udp 514埠接收Syslog資訊;
Filter(過濾器)外掛雖然在本例中不需要配置,但它的功能非常強大,可以進行復雜的邏輯處理,包括正規表示式處理、編解碼、k/v切分以及各種數值、時間等資料處理,具體可根據實際場景設定;
Output(輸出)外掛用於將處理後的事件資料傳送到指定目的地,指定了Kafka的位置、topic以及壓縮型別。在最後的Codec編碼外掛中,指定來源主機的IP地址(host)、Logstash處理的時間戳(@timestamp)作為字首並整合原始的事件訊息(message),方便在事件傳輸過程中判斷Syslog資訊來源。單條原始Syslog資訊流樣例如下:
147>12164: Oct 9 18:04:10.735: %LINK-3-UPDOWN: Interface GigabitEthernet0/16, changed state to down
Logstash Output外掛處理後的資訊流變成為:
19.1.1.12 2016-10-13T10:04:54.520Z <147>12164: Oct 9 18:04:10.735: %LINK-3-UPDOWN: Interface GigabitEthernet0/16, changed state to down
其中紅色欄位就是codec編碼外掛植入的host以及timestamp資訊。處理後的Syslog資訊會傳送至Kafka叢集中進行訊息的快取。
Kafka日誌緩衝
Kafka是一個高吞吐的分散式訊息佇列,也是一個訂閱/釋出系統。Kafka叢集中每個節點都有一個被稱為broker的例項,負責快取資料。Kafka有兩類客戶端,Producer(訊息生產者的)和Consumer(訊息消費者)。Kafka中不同業務系統的訊息可透過topic進行區分,每個訊息都會被分割槽,用以分擔訊息讀寫負載,每個分割槽又可以有多個副本來防止資料丟失。消費者在具體消費某個topic訊息時,指定起始偏移量。Kafka透過Zero-Copy、Exactly Once等技術語義保證了訊息傳輸的實時、高效、可靠以及容錯性。
Kafka叢集中某個broker的配置檔案server.properties的部分配置如下:
########## Server Basics ########### # 為每一個broker設定獨立的數字作為id broker.id=1 ###### Socket Server Settings ###### # socket監聽埠 port=9092 ########### Zookeeper ############## # Zookeeper的連線配置 zookeeper.connect=gtcluster-slave02:2181,gtcluster-slave03:2181,gtcluster-slave04:2181 # Timeout in ms for connecting to zookeeper zookeeper.connection.timeout.ms=3000
其中需指定叢集裡不同broker的id,此臺broker的id為1,預設監聽9092埠,然後配置Zookeeper(後續簡稱zk)叢集,再啟動broker即可。
Kafka叢集名為syslog-kafka的topic:
bin/kafka-topics.sh
--create --zookeeper gtcluster-slave02:2181,gtcluster-slave03:2181,gtcluster-slave04:2181 --replication-factor 3 --partitions 3 --topic syslog-kafka
Kafka叢集的topic以及partition等資訊也可以透過登入zk來觀察。然後再透過下列命令檢視Kafka接收到的所有交換機日誌資訊:
bin/kafka-console-consumer.sh--zookeeper gtcluster-slave02:2181--from-beginning --topic Syslog-kafka
部分日誌樣例如下:
10.1.1.10 2016-10-18T05:23:04.015Z <163>5585: Oct 18 13:22:45: %LINK-3-UPDOWN: Interface FastEthernet0/9, changed state to down 19.1.1.113 2016-10-18T05:24:04.425Z <149>10857: Oct 18 13:25:23.019 cmt: %LINEPROTO-5-UPDOWN: Line protocol on Interface GigabitEthernet1/0/3, changed state to down 19.1.1.113 2016-10-18T05:24:08.312Z <149>10860: Oct 18 13:25:27.935 cmt: %LINEPROTO-5-UPDOWN: Line protocol on Interface GigabitEthernet1/0/3, changed state to up
Spark日誌處理邏輯
Spark是一個為大規模資料處理而生的快速、通用的引擎,在速度、效率及通用性上表現極為優異。
在Spark主程式中,透過Scala的正規表示式解析Kafka Source中名為“syslog-kafka” 的topic中的所有Syslog資訊,再將解析後的有效欄位封裝為結果物件,最後透過MyBatis近實時地寫入MySQL中,供前端應用進行實時地視覺化展示。另外,全量資料儲存進入HBase及ES中,為後續海量日誌的檢索分析及其它更高階的應用提供支援。主程式示例程式碼如下:
object SwSyslogProcessor { def main(args: Array[String]): Unit = { // 初始化SparkContext,批處理間隔5秒 val sparkConf: SparkConf = new SparkConf().setAppName("SwSyslogProcessorApp ")
.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer") val ssc = new StreamingContext(sparkConf, Seconds(5)) // 定義topic val topic = Set("syslog-kafka") // 定義kafka的broker list地址 val brokers = "192.168.8.65:9092,192.168.8.66:9092,192.168.8.67:9092" val kafkaParams = Map[String, String]("metadata.broker.list" -> brokers, "serializer.class" -> "kafka.serializer.StringDecoder") // 透過topic以及brokers,建立從kafka獲取的資料流 val swSyslogDstream = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](
ssc, kafkaParams, topic) val totalcounts = ssc.sparkContext.accumulator(0L, "Total count") val lines = swSyslogDstream.map(x => x._2) // 將一行一行資料對映成SwSyslog物件 lines.filter(x => !x.isEmpty
&& x.contains("%LIN")
&& x.contains("Ethernet")
.map(
x => {
SwSyslogService.encapsulateSwSyslog(x) // 封裝並返回SwSyslog }).foreachRDD((s: RDD[SwSyslog], time: Time) => { // 遍歷DStream中的RDD if (!s.isEmpty()) { // 遍歷RDD中的分割槽記錄 s.foreachPartition {
records => { if (!records.isEmpty) records.toSet.foreach {
r: SwSyslog => // 統計當前處理的記錄總數 totalcounts.add(1L) // 儲存SwSyslog資訊到MySQL SwSyslogService.saveSwSyslog(r)
}
}
}
}
}
) //啟動程式 ssc.start() // 阻塞等待 ssc.awaitTermination()
}
整體的處理分析主要分為4步:
- 初始化SparkContext並指定Application的引數;
- 建立基於Kafka topic “syslog-kafka” 的DirectStream;
- 將獲取的每一行資料對映為Syslog物件,呼叫Service進行物件封裝並返回;
- 遍歷RDD,記錄不為空時儲存或者更新Syslog資訊到MySQL中。
Syslog POJO的部分基本屬性如下:
@Table(name = "sw_syslog") public class SwSyslog { /**
* 日誌ID
*/ @Id @GeneratedValue(strategy = GenerationType.IDENTITY) private Long id; /**
* 裝置IP
*/ @Column(name = "dev_ip") private String devIp; /**
* 伺服器時間
*/ @Column(name = "server_time") private String serverTime; /**
* 資訊序號
*/ @Column(name = "syslog_num") private Long syslogNum;
……
}
SwSyslog實體中的基本屬性對應Syslog中的介面資訊,註解中的name對應MySQL中的表sw_syslog 以及各個欄位,MyBatis完成成員屬性和資料庫結構的ORM(物件關係對映)。
程式中的SwSyslogService有兩個主要功能:
public static SwSyslog encapsulateSwSyslog(String syslogInfo) {
SwSyslog swsyslog = new SwSyslog(); swsyslog.setDevIp(SwSyslogExtractorUtil.extractDevIp(syslogInfo)); swsyslog.setServerTime(SwSyslogExtractorUtil.extractServerTime(syslogInfo)); swsyslog.setSyslogNum(SwSyslogExtractorUtil.extractSyslogNum(syslogInfo)); swsyslog.setDevTime(SwSyslogExtractorUtil.extractDevTime(syslogInfo)); swsyslog.setSyslogType(SwSyslogExtractorUtil.extractSyslogType(syslogInfo)); swsyslog.setInfoType(SwSyslogExtractorUtil.extractInfoType(syslogInfo)); swsyslog.setDevInterface(SwSyslogExtractorUtil .extractDevInterface(syslogInfo)); swsyslog.setInterfaceState(SwSyslogExtractorUtil .extractInterfaceState(syslogInfo)); return swsyslog; }
public static void saveSwSyslog(SwSyslog swSyslog) {
LOGGER.debug("開始儲存或更新SwSyslog", swSyslog); // 根據ip查詢所有Syslog
List<swsyslog> list = swSyslogMapper.queryAllByIp(swSyslog.getDevIp()); // 如果list非空,即查到對應IP的SwSyslog
if (list != null && !list.isEmpty()) {
for (SwSyslog sys : list) {
// 若IP的介面相同,則更新資訊
if (sys.getDevInterface().equals(swSyslog.getDevInterface())) {
LOGGER.debug("有相同IP相同介面的記錄,開始更新SwSyslog"); sys.setServerTime(swSyslog.getServerTime()); sys.setSyslogNum(swSyslog.getSyslogNum()); sys.setDevTime(swSyslog.getDevTime()); sys.setSyslogType(swSyslog.getSyslogType()); sys.setInfoType(swSyslog.getInfoType()); sys.setInterfaceState(swSyslog.getInterfaceState()); sys.setUpdated(new Date()); swSyslogMapper.update(sys); } else {
// 若介面不同,則直接儲存
LOGGER.debug("相同IP無對應介面,儲存SwSyslog"); swSyslog.setCreated(new Date()); swSyslog.setUpdated(swSyslog.getCreated()); swSyslogMapper.insert(swSyslog); }
}
} else {
// 沒有對應的IP記錄,直接儲存資訊
LOGGER.debug("沒有相同IP記錄,直接儲存SwSyslog"); swSyslog.setCreated(new Date()); swSyslog.setUpdated(swSyslog.getCreated()); swSyslogMapper.insert(swSyslog); }
}</swsyslog>
encapsulateSwSyslog()將Spark處理後的每一行Syslog透過Scala的正規表示式解析為不同的欄位,然後封裝並返回Syslog物件;遍歷RDD分割槽生成的每一個Syslog物件中都有ip以及介面資訊,saveSwSyslog()會據此判斷該插入還是更新Syslog資訊至資料庫。另外,封裝好的Syslog物件透過ORM工具MyBatis與MySQL進行互操作。
獲取到的每一行Syslog資訊如之前所述:
19.1.1.12 2016-10-13T10:04:54.520Z <147>12164: Oct 9 18:04:10.735: %LINK-3-UPDOWN: Interface GigabitEthernet0/16, changed state to down
這段資訊需解析為裝置ip、伺服器時間、資訊序號、裝置時間、Syslog型別、屬性、裝置介面、介面狀態等欄位。Scala正則解析邏輯如下:
/**
* 抽取伺服器時間
* 樣例:2016-10-09T10:04:54.517Z
* @param line
* @return */ def extractServerTime(line: String): String = { val regex1 = "20\\d{2}-\\d{2}-\\d{2}".r val regex2 = "\\d{2}:\\d{2}:\\d{2}.?(\\d{3})?".r val matchedDate = regex1.findFirstIn(line) val matchedTime = regex2.findFirstIn(line) val result1 = matchedDate match { case Some(date) => date case None => " " } val result2 = matchedTime match { case Some(time) => time case None => " " }
result1 + " " + result2
} /**
* 抽取裝置時間
* 樣例:Sep 29 09:33:06
* Oct 9 18:04:09.733
* @param line
* @return */ def extractDevTime(line: String): String = { val regex = "[a-zA-Z]{3}\\s+\\d+\\s\\d{2}:\\d{2}:\\d{2}((.\\d{3})|())".r val matchedDevTime = regex.findFirstIn(line) val result = matchedDevTime match { case Some(devTime) => devTime case None => " " }
result
}
透過正則過濾、Syslog封裝以及MyBatis持久層對映,Syslog介面狀態資訊最終解析如下:
最後,諸如APM、網路監控或者告警等業務應用便可以基於MySQL做視覺化展示。
總結
本文首先對公安運維管理現狀做了簡要介紹,然後介紹公安實時運維平臺的整體架構,再以交換機Syslog資訊為例,詳細介紹如何使用Flume+Logstash+Kafka+Spark Streaming進行實時日誌處理分析,對處理過程中大量的技術細節進行了描述並透過程式碼詳細地介紹整體處理步驟。本文中的示例實時地將資料寫入MySQL存在一定的效能瓶頸,後期會對包含本例的相關程式碼重構,資料將會實時寫入HBase來提高效能。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/14710393/viewspace-2132281/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 基於 Spark 的資料分析實踐Spark
- 基於雲原生的大資料實時分析方案實踐大資料
- 百分點科技大資料技術團隊:基於多Spark任務的ClickHouse資料同步方案實踐大資料Spark
- 基於HTTP協議的幾種實時資料獲取技術HTTP協議
- 技術集錦 | 大資料雲原生技術實戰及最佳實踐系列大資料
- 錢大媽基於 Flink 的實時風控實踐
- 2023年大資料場景智慧運維實踐總結大資料運維
- 資料庫智慧運維探索與實踐資料庫運維
- 基於 DataLakeAnalytics 的資料湖實踐
- 基於DataLakeAnalytics的資料湖實踐
- 從百度運維實踐談“基於機器學習的智慧運維”運維機器學習
- 技術沙龍|京東雲DevOps自動化運維技術實踐dev運維
- Python技術棧與Spark交叉資料分析雙向整合技術實戰--大資料ML樣本集案例實戰PythonSpark大資料
- 大資料開發的儲存技術探索與實踐大資料
- 大資料實踐解析(下):Spark的讀寫流程分析大資料Spark
- 基於圖資料庫的後設資料血緣關係分析技術研究與實踐資料庫
- 資料庫伺服器運維最佳實踐資料庫伺服器運維
- 基於 Flink 的小米資料整合實踐
- 資料庫運維 | 攜程分散式圖資料庫NebulaGraph運維治理實踐資料庫運維分散式
- 騰訊資料治理技術實踐
- 基於開源大資料排程系統Taier的Web前端架構選型及技術實踐大資料AIWeb前端架構
- 乾貨分享:容器 PaaS 新技術架構下的運維實踐架構運維
- 實時技術的榮光,微軟釋出實時大資料分析產品!微軟大資料
- 打造實時資料整合平臺——DataPipeline基於Kafka Connect的應用實踐APIKafka
- 基於WebGL的三維交通監控視覺化技術應用(實踐版) ThingJSWeb視覺化JS
- 基於kubernetes自研容器管理平臺的技術實踐
- 如何運維多叢集資料庫?58 同城 NebulaGraph Database 運維實踐運維資料庫Database
- 百度愛番番基於圖技術、流式計算的實時CDP建設實踐
- 基於 MySQL Binlog 的 Elasticsearch 資料同步實踐MySqlElasticsearch
- 基於時序資料,推動智慧運維發展運維
- 技術實踐丨GaussDB(DWS)運維管理功能“升級”的原理和使用運維
- [Day 1]上海CNUTCon全球運維技術大會2017實錄運維
- DataOps for LLM 的資料工程技術架構實踐架構
- 四個保護資料安全的技術實踐
- 配運基礎資料快取瘦身實踐快取
- 基於 Flink 的實時數倉生產實踐
- 運維數智化轉型的深入實踐與探索運維
- Yelp 的 Spark 資料血緣建設實踐!Spark
- 基於 Coolbpf 的應用可觀測實踐 | 龍蜥技術