09【線上日誌分析】之基於Spark Streaming Direct方式的WordCount最詳細案例(java版)

hackeruncle發表於2017-01-14
1.前提
a. flume 收集--》flume 聚合--》kafka ,啟動程式和啟動kafka manager監控

    08【線上日誌分析】之Flume Agent(聚合節點) sink to kafka cluster

b.

c.window7 安裝IDEA開發工具(以下僅供參考)

使用IntelliJ IDEA 配置Maven(入門): http://blog.csdn.net/qq_32588349/article/details/51461182

IDEA Java/Scala混合專案Maven打包 :http://blog.csdn.net/rongyongfeikai2/article/details/51404611
Intellij idea使用java編寫並執行spark程式: http://blog.csdn.net/yhao2014/article/details/44239021


2.原始碼 (可下載單個java檔案,加入projet 或者 整個工程下載,IDEA選擇open 即可)
GitHub: 


3.使用IDEA 本地執行測試(未打jar包)
09【線上日誌分析】之基於Spark Streaming Direct方式的WordCount最詳細案例(java版)







來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/30089851/viewspace-2132442/,如需轉載,請註明出處,否則將追究法律責任。

相關文章