flink batch dataset 的基本操作
package hgs.flink_lesson
import org.apache.flink.api.java.utils.ParameterTool
import org.apache.flink.streaming.api.scala._
import org.apache.flink.api.scala.ExecutionEnvironment
import org.apache.flink.core.fs.FileSystem.WriteMode
import org.apache.flink.api.common.accumulators.Accumulator
import org.apache.flink.api.common.accumulators.IntCounter
import scala.collection.immutable.List
import scala.collection.mutable.ListBuffer
import scala.collection.immutable.HashMap
//import StreamExecutionEnvironment.class
object WordCount {
def main(args: Array[String]): Unit = {
val params = ParameterTool.fromArgs(args)
//1.獲得一個執行環境,如果是Streaming則換成StreamExecutionEnvironment
val env = ExecutionEnvironment.getExecutionEnvironment
//這樣會得到當前環境下的配置
env.getConfig.setGlobalJobParameters(params)
println(params.get("input"))
println(params.get("output"))
val text = if(params.has("input")){
//2.載入或者建立初始化資料
env.readTextFile(params.get("input"))
}else{
println("Please specify the input file directory.")
return
}
println("lines "+text.count())
val ac = new IntCounter
//3.在資料上指明操作型別
val counts = text.flatMap{ _.toLowerCase().split("\\W+").filter{_.nonEmpty}}
//這裡與spark的運算元的groupBy有點不同,這邊要用陣列類似的下標來確定根據什麼進行分組
.map{(_,1)}.groupBy(0).reduceGroup(it=>{
val tuple = it.next()
var cnt = tuple._2
val ch = tuple._1
while(it.hasNext){
cnt= cnt+it.next()._2
}
(ch,cnt)})
//指明計算後的資料結果放到哪個位置
//4.counts.print()
counts.writeAsCsv("file:/d:/re.txt", "\n", " ",WriteMode.OVERWRITE)
//5.觸發程式執行
env.execute("Scala WordCount Example")
//
}
}
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31506529/viewspace-2564530/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- DataSet的幾個基本操作
- Flink的DataSet基本運算元總結
- flink將bathch dataset 轉換為sql操作BATSQL
- 聊聊jdbc的batch操作JDBCBAT
- 第04講:Flink 常用的 DataSet 和 DataStream APIASTAPI
- 邀請 | Flink Batch 社群開發者會議BAT
- Spark2 Dataset聚合操作Spark
- LINQ系列:LINQ to DataSet的DataTable操作
- LINQ系列:LINQ to DataSet的DataView操作View
- SAP UI5裡Batch操作和Read操作的區別UIBAT
- Spring Batch 基本的批處理指導原則SpringBAT
- Flink的join操作樣例
- Flink整合面向使用者的資料流SDKs/API(Flink關於棄用Dataset API的論述)API
- 大資料開發-Flink-資料流DataStream和DataSet大資料AST
- Go 操作 Redis 的基本操作GoRedis
- Docker的基本操作Docker
- MySQL的基本操作MySql
- git的基本操作Git
- 模組的基本操作
- 棧的基本操作
- webdriver的基本操作Web
- hash的基本操作
- 【BATCH】BATCH-CopyBAT
- 使用Reactor完成類似的Flink的操作React
- 聊聊flink Table的where及filter操作Filter
- 活動(Activity)的基本操作
- JS — 物件的基本操作JS物件
- react的基本操作(1)React
- Hive表的基本操作Hive
- Vim命令的基本操作
- Numpy的基本操作(五)
- Hbase shell的基本操作
- git的基本操作(一)Git
- Docker映象的基本操作Docker
- 佇列的基本操作佇列
- ThinkPHP 的CURD 基本操作PHP
- DriveInfo類的基本操作
- FileInfo類的基本操作