您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關flink batch dataset的示例代碼的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
package hgs.flink_lesson import org.apache.flink.api.java.utils.ParameterTool import org.apache.flink.streaming.api.scala._ import org.apache.flink.api.scala.ExecutionEnvironment import org.apache.flink.core.fs.FileSystem.WriteMode import org.apache.flink.api.common.accumulators.Accumulator import org.apache.flink.api.common.accumulators.IntCounter import scala.collection.immutable.List import scala.collection.mutable.ListBuffer import scala.collection.immutable.HashMap //import StreamExecutionEnvironment.class object WordCount { def main(args: Array[String]): Unit = { val params = ParameterTool.fromArgs(args) //1.獲得一個執行環境,如果是Streaming則換成StreamExecutionEnvironment val env = ExecutionEnvironment.getExecutionEnvironment //這樣會得到當前環境下的配置 env.getConfig.setGlobalJobParameters(params) println(params.get("input")) println(params.get("output")) val text = if(params.has("input")){ //2.加載或者創建初始化數據 env.readTextFile(params.get("input")) }else{ println("Please specify the input file directory.") return } println("lines "+text.count()) val ac = new IntCounter //3.在數據上指明操作類型 val counts = text.flatMap{ _.toLowerCase().split("\\W+").filter{_.nonEmpty}} //這里與spark的算子的groupBy有點不同,這邊要用數組類似的下標來確定根據什么進行分組 .map{(_,1)}.groupBy(0).reduceGroup(it=>{ val tuple = it.next() var cnt = tuple._2 val ch = tuple._1 while(it.hasNext){ cnt= cnt+it.next()._2 } (ch,cnt)}) //指明計算后的數據結果放到哪個位置 //4.counts.print() counts.writeAsCsv("file:/d:/re.txt", "\n", " ",WriteMode.OVERWRITE) //5.觸發程序執行 env.execute("Scala WordCount Example") // } }
感謝各位的閱讀!關于“flink batch dataset的示例代碼”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。