15【線上日誌分析】之基於Spark Streaming+Saprk SQL開發OnLineLogAanlysis2(Final)
1.influxdb建立database
[root@sht-sgmhadoopdn-04 app]# influx -precision rfc3339
Connected to version 1.2.0
InfluxDB shell version: 1.2.0
>create database online_log_analysis
2.專案中原本想將 influxdb-java 的InfluxDBTest.java 檔案的加到專案中,所以必須要引入 influxdb-java 的包;
但是由於GitHub的上的class檔案的某些方法,是版本是2.6,而maven中的最高也就2.5版本,所以將Github的原始碼下載匯入到idea中,編譯匯出2.6.jar包;
可是 引入2.6jar包,其在InfluxDBTest.class檔案的 無法import org.influxdb(百度谷歌很長時間,嘗試很多方法不行)。
最後索性將 influx-java的原始碼全部新增到專案中即可,如下圖所示。
3.執行OnLineLogAanlysis2.java
比如 logtype_count,host_service_logtype=hadoopnn-01_namenode_WARN count=12
logtype_count 是表
host_service_logtype=hadoopnn-01_namenode_WARN 是 tag--標籤,在InfluxDB中,tag是一個非常重要的部分,表名+tag一起作為資料庫的索引,是“key-value”的形式。
count=12 是 field--資料,field主要是用來存放資料的部分,也是“key-value”的形式。
tag、field 中間是要有空格的
4.influxdb查詢資料
[root@sht-sgmhadoopdn-04 app]# influx -precision rfc3339
Connected to version 1.2.0
InfluxDB shell version: 1.2.0
>create database online_log_analysis
2.專案中原本想將 influxdb-java 的InfluxDBTest.java 檔案的加到專案中,所以必須要引入 influxdb-java 的包;
但是由於GitHub的上的class檔案的某些方法,是版本是2.6,而maven中的最高也就2.5版本,所以將Github的原始碼下載匯入到idea中,編譯匯出2.6.jar包;
可是 引入2.6jar包,其在InfluxDBTest.class檔案的 無法import org.influxdb(百度谷歌很長時間,嘗試很多方法不行)。
最後索性將 influx-java的原始碼全部新增到專案中即可,如下圖所示。
3.執行OnLineLogAanlysis2.java
比如 logtype_count,host_service_logtype=hadoopnn-01_namenode_WARN count=12
logtype_count 是表
host_service_logtype=hadoopnn-01_namenode_WARN 是 tag--標籤,在InfluxDB中,tag是一個非常重要的部分,表名+tag一起作為資料庫的索引,是“key-value”的形式。
count=12 是 field--資料,field主要是用來存放資料的部分,也是“key-value”的形式。
tag、field 中間是要有空格的
4.influxdb查詢資料
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/30089851/viewspace-2133325/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 10【線上日誌分析】之基於Spark Streaming開發OnLineLogAanlysis1Spark
- 09【線上日誌分析】之基於Spark Streaming Direct方式的WordCount最詳細案例(java版)SparkJava
- 20【線上日誌分析】之記錄一次Spark Streaming+Spark SQL的資料傾斜SparkSQL
- 18【線上日誌分析】之Spark on Yarn配置日誌Web UI(HistoryServer服務)SparkYarnWebUIServer
- 02【線上日誌分析】之基於Flume-ng Exec Source開發自定義外掛AdvancedExecSource
- 25【線上日誌分析】之基於Flume-ng Exec Source開發自定義外掛ExecSource_JSONJSON
- 06【線上日誌分析】之KafkaOffsetMonitor監控工具的搭建Kafka
- Flume+Spark+Hive+Spark SQL離線分析系統SparkHiveSQL
- 16【線上日誌分析】之grafana-4.1.1 Install和新建日誌分析的DashBoardGrafana
- Spark SQL:實現日誌離線批處理SparkSQL
- 22【線上日誌分析】之專案第二階段概述
- 11【線上日誌分析】之redis-3.2.5 install(單節點)Redis
- 08【線上日誌分析】之Flume Agent(聚合節點) sink to kafka clusterKafka
- 00【線上日誌分析】之專案概述和GitHub專案地址Github
- spark基礎之spark sql執行原理和架構SparkSQL架構
- 17【線上日誌分析】之使用IDEA將工程Build成jar包IdeaUIJAR
- 收集、分析線上日誌資料實戰——ELK
- Learning Spark——使用Intellij Idea開發基於Maven的Spark程式SparkIntelliJIdeaMaven
- Spark 從零到開發(五)初識Spark SQLSparkSQL
- 基於 Spark 的資料分析實踐Spark
- Spark UI (基於Yarn) 分析與定製SparkUIYarn
- 12【線上日誌分析】之RedisLive監控工具的詳細安裝Redis
- 19【線上日誌分析】之sparkdemo.jar執行在yarn上過程SparkJARYarn
- 基於go開發日誌處理包Go
- 【REDO】Oracle 日誌挖掘,分析歸檔日誌線上日誌主要步驟Oracle
- 基於Spark對消費者行為資料進行資料分析開發案例Spark
- SMProxy 分析 (基於 Swoole 開發的 MySQL 資料庫連線池)MySql資料庫
- Oracle 線上日誌管理Oracle
- 線上日誌損壞
- Spark3學習【基於Java】3. Spark-Sql常用APISparkJavaSQLAPI
- 基於成本的Spark SQL優化器框架 [session]SparkSQL優化框架Session
- Spark 系列(九)—— Spark SQL 之 Structured APISparkSQLStructAPI
- 本地開發spark程式碼上傳spark叢集服務並執行(基於spark官網文件)Spark
- 24【線上日誌分析】之Tomcat的支援log4j,日誌輸出為json格式TomcatJSON
- 23【線上日誌分析】之改造CDH的HDFS的NN,DN程式,日誌輸出為json格式JSON
- 21【線上日誌分析】之記錄一個flume-ng的tail -f引數所誘發的血案AI
- 非線上日誌丟失
- RAC 線上日誌的管理