Hazelcast IMDG和Spark 2實現大資料專案 — tomask79
將HBase中的資料放入Hazelcast IMDG,從Spark以RDD方式訪問,這是一個非常廣泛使用的解決方案。
先決條件
- Spring Boot演示應用程式(入門版1.5.9),其資料儲存在Hazelcast IMap(hazelcast-app資料夾)中
- 好用且老式的Hortonworks Sandbox 2.6.5(因為您安裝了它並可以使用)
- 打包成胖jar的Spark 2任務以RDD方式訪問Hazelcast IMap(spark-hazelcast資料夾中的sbt專案)
- 作為從Spark 2到Hazelcast的聯結器,我將使用Greg Luck的用於Hazelcast的Spark聯結器
Spring Boot演示應用程式
hazelcast-app的核心是LifecycleListener,它會在Hazelcast群集啟動後立即使用資料初始化IMap。
package com.example; import com.hazelcast.core.Hazelcast; import com.hazelcast.core.HazelcastInstance; import com.hazelcast.core.LifecycleEvent; import com.hazelcast.core.LifecycleListener; /** * @author tomask79 */ public class NodeLifecycleListener implements LifecycleListener { private String hazelcastInstanceName; /** * @param instanceName */ public NodeLifecycleListener(final String instanceName) { this.hazelcastInstanceName = instanceName; } @Override public void stateChanged(LifecycleEvent event) { switch(event.getState()) { case STARTED: { System.out.println("Cluster is started, putting test data into distributed map!"); preloadHZMapOnClusterStart(); break; } default: { System.out.println(event.toString()); } } } private void preloadHZMapOnClusterStart() { getHazelcastInstance(hazelcastInstanceName).getMap(HZArtifactAPI.PAYMENTS_MAP). put("1234HZC", 100.0); getHazelcastInstance(hazelcastInstanceName).getMap(HZArtifactAPI.PAYMENTS_MAP). put("5344HZC", 1500.0); getHazelcastInstance(hazelcastInstanceName).getMap(HZArtifactAPI.PAYMENTS_MAP). put("7662HZC", 1300.0); getHazelcastInstance(hazelcastInstanceName).getMap(HZArtifactAPI.PAYMENTS_MAP). put("8626HZC", 1400.0); getHazelcastInstance(hazelcastInstanceName).getMap(HZArtifactAPI.PAYMENTS_MAP). put("7277HZC", 1500.0); getHazelcastInstance(hazelcastInstanceName).getMap(HZArtifactAPI.PAYMENTS_MAP). put("6636HZC", 1500.0); } private HazelcastInstance getHazelcastInstance(final String name) { return Hazelcast.getHazelcastInstanceByName(name); } } |
不要錯過Hazelcast的STARTED事件直接在註冊監聽器配置:
@Bean public Config config() { Config config = new Config(); config.setInstanceName(HZArtifactAPI.HAZELCAST_INSTANCE); config.setProperty("hazelcast.wait.seconds.before.join","10"); config.getGroupConfig().setName("mygroup"); config.getGroupConfig().setPassword("mypassword"); config.getNetworkConfig().setPortAutoIncrement(true); config.getNetworkConfig().setPort(10555); config.getNetworkConfig().getJoin().getMulticastConfig().setEnabled(true); config.addListenerConfig( new ListenerConfig( new NodeLifecycleListener(HZArtifactAPI.HAZELCAST_INSTANCE) )); SSLConfig sslConfig = new SSLConfig(); sslConfig.setEnabled(false); config.getNetworkConfig().setSSLConfig(sslConfig); return config; } |
好吧,現在讓我們編譯並執行Spring boot應用程式並測試Hazelcast IMap:
tomask79:hazelcast-app tomask79$ pwd /Users/tomask79/workspace/spark-hazelcast-integration/hazelcast-app tomask79:hazelcast-app tomask79$ mvn clean install tomask79:hazelcast-app tomask79$ java -jar spring-microservice-service1/target/service1-0.0.1-SNAPSHOT.war |
為了測試IMap是否正常工作以及是否公開了資料,我新增了簡單的REST控制器,以便在另一個終端中執行:
tomask79:hazelcast-app tomask79$ curl http://localhost:8082/payments/7662HZC 1300.0 tomask79:hazelcast-app tomask79$ curl http://localhost:8082/payments/1234HZC 100.0 |
Spring Boot演示應用程式準備就緒!
Spark 2任務以RDD訪問Hazelcast IMap
在將Spark Connector用於Hazelcast時,請確保按照先決條件中的說明使用Hazelcast 3.7.x或更高版本。由於使用3.6.4,有一段時間我無法將Spark 2任務與Hazelcast連線。作為演示,我將在Hazelcast IMap上獲取RDD並在其上執行RDD collect
package com.example import org.apache.spark.{SparkContext, SparkConf} import org.apache.hadoop.conf.Configuration import org.apache.spark.sql.{Row, SparkSession} import com.hazelcast.spark.connector.{toSparkContextFunctions} object HazelcastConnectorTest { def runCode() = { val conf = new SparkConf() .set("hazelcast.server.addresses", "127.0.0.1:10555") .set("hazelcast.server.groupName", "mygroup") .set("hazelcast.server.groupPass", "mypassword") .set("hazelcast.spark.valueBatchingEnabled", "true") .set("hazelcast.spark.readBatchSize", "5000") .set("hazelcast.spark.writeBatchSize", "5000") val sc = new SparkContext(conf) val rddFromMap = sc.fromHazelcastMap("payments_map") rddFromMap.collect().foreach(println) } } |
IMap名稱“ payments_map”等於已經提到的NodeLifecycleListener中的HZArtifactAPI.PAYMENTS_MAP常量。
測試一切
倉庫有兩個資料夾,一個是hazelcast-app,一個是maven專案,另一個是spark scala sbt專案:
構建hazelcast-app:
tomask79:hazelcast-app tomask79$ pwd /Users/tomask79/workspace/spark-hazelcast-integration/hazelcast-app tomask79:hazelcast-app tomask79$ mvn clean install |
構建Spark sbt專案:
tomask79:spark-hazelcast tomask79$ pwd /Users/tomask79/workspace/spark-hazelcast-integration/spark-hazelcast tomask79:spark-hazelcast tomask79$ sbt assembly |
現在,讓我們啟動Hortonworks沙箱,然後將Spark胖jar上傳到其中:
tomask79:scala-2.11 tomask79$ pwd /Users/tomask79/workspace/spark-hazelcast-integration/spark-hazelcast/target/scala-2.11 tomask79:scala-2.11 tomask79$ scp -P 2222 apache-spark-2-scala-starter-template-assembly-1.0.jar root@localhost:/root root@localhost's password: apache-spark-2-scala-starter-template-assembly-1.0.jar |
現在,如果將VirtualBox用於Sandbox,並且要訪問在外部執行的Hazelcast應用程式,則必須設定埠轉發。我不想弄亂它,所以我也將hazelcast-app WAR檔案上傳到了沙箱中...由您決定。
啟動hazelcast-app:
[root@sandbox-hdp ~]# java -jar service1-0.0.1-SNAPSHOT.war |
再次讓我們在另一個終端中對其進行測試:
[root@sandbox-hdp ~]# curl http://localhost:8082/payments/7662HZC 1300.0 |
看起來不錯...
啟動Spark 2任務以訪問Hazelcast IMDG
[root@sandbox-hdp ~]# spark-submit --class com.example.Main --master yarn-client apache-spark-2-scala-starter-template-assembly-1.0.jar |
並且在輸出中,您應該看到在Spark 2中可見的IMap“ payments_map”的內容:
19/09/01 20:10:16 INFO YarnScheduler: Removed TaskSet 0.0, whose tasks have all completed, from pool 19/09/01 20:10:16 INFO DAGScheduler: ResultStage 0 (collect at HazelcastConnectorTest.scala:25) finished in 12.410 s 19/09/01 20:10:16 INFO DAGScheduler: Job 0 finished: collect at HazelcastConnectorTest.scala:25, took 12.682620 s (7277HZC,1500.0) (8626HZC,1400.0) (5344HZC,1500.0) (1234HZC,100.0) (7662HZC,1300.0) (6636HZC,1500.0) |
Hazelcast的Spark聯結器似乎正在工作。太好了,如果您在Hazelcast IMDG中有一些資料,並且需要在大資料Hadoop Warhouse處理中使用它們,那麼我認為此聯結器非常有用。
點選標題獲取原始碼
相關文章
- 好程式設計師大資料培訓分享常見的Hadoop和Spark專案程式設計師大資料HadoopSpark
- 大資料架構師必讀:常見的七種Hadoop和Spark專案案例大資料架構HadoopSpark
- 客快物流大資料專案(四十四):Spark操作Kudu建立表大資料Spark
- 客快物流大資料專案(四十五):Spark操作Kudu DML操作大資料Spark
- 大資料爬蟲專案實戰教程大資料爬蟲
- 客快物流大資料專案(四十六):Spark操作Kudu dataFrame操作kudu大資料Spark
- 大資料學習,大資料發展趨勢和Spark介紹大資料Spark
- 大資料專案實踐(五)——Hue安裝大資料
- 使用HazelCast實現Spring Config Server配置ASTSpringServer
- 大資料專案實戰之 --- 使用者畫像專案分析大資料
- 《Hadoop+Spark大資料分析實戰》簡介HadoopSpark大資料
- 3.0 阿里雲大資料專案實戰開發阿里大資料
- 2、JSP實現資料傳遞和儲存JS
- springboot對接spark大資料Spring BootSpark大資料
- 【大資料】Spark RDD基礎大資料Spark
- 大資料專案實踐(一)——之HDFS叢集配置大資料
- 記錄:如何使用ASP.NET Core和EnityFramework Core實現 資料庫操作 和 資料庫實體 的專案分離ASP.NETFramework資料庫
- Spark SQL外部資料來源與實現機制SparkSQL
- 大資料分享Spark任務和叢集啟動流程大資料Spark
- 大資料框架對比 - Hadoop、Spark、Storm、Samza、Spark、Flink大資料框架HadoopSparkORM
- 怎麼實現員工和工資大資料分析,echarts+js實現大資料EchartsJS
- 大資料Spark叢集模式配置大資料Spark模式
- [大資料之Spark]——快速入門大資料Spark
- [大資料] Spark架構詳解大資料Spark架構
- 大資料實踐解析(下):Spark的讀寫流程分析大資料Spark
- <Zhuuu_ZZ>Spark專案之log日誌資料分析處理Spark
- Java實現解壓縮檔案和資料夾Java
- kafka:spark-project專案的kafka和scala配置KafkaSparkProject
- zookeeper:spark-project專案的hive和mysql配置SparkProjectHiveMySql
- 常見的七種Hadoop和Spark專案案例HadoopSpark
- 大資料入門課程:Hadoop和spark的效能比較大資料HadoopSpark
- gorm 專案使用多數資料庫 怎麼實現好GoORM資料庫
- 談談Hadoop MapReduce和Spark MR實現HadoopSpark
- Spark實現行列轉換pivot和unpivotSpark
- CGO實戰專案中常用的資料轉換和使用Go
- 大資料學習—Spark核心概念RDD大資料Spark
- 客快物流大資料專案(五十一):資料庫表分析 物流專案 資料庫表設計大資料資料庫
- Hazelcast和Redis打口水仗:誰的效能更厲害?- hazelcastASTRedis