您好,登錄后才能下訂單哦!
spark-shell實現WordCount&按word排序&按count排序,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。
輸入:
hello tom hello jerry hello kitty hello world hello tom
讀取 HDFS 中位于 hdfs://node1:9000/wc/input 目錄下的文本文件, 讀取結果賦值給 textRdd
val textRdd = sc.textFile("hdfs://node1:9000/wc/input") textRdd.collect res1: Array[String] = Array(hello,tom, hello,jerry, hello,kitty, hello,world, hello,tom)
實現普通的 WordCount, 但結果不會像 MapReduce 那樣按 Key(word) 排序
val wcRdd = textRdd.flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _) wcRdd.collect res2: Array[(String, Int)] = Array((tom,2), (hello,5), (jerry,1), (kitty,1), (world,1))
實現按 Key(word) 排序(字典順序)的 WordCount
思路: 在 wcRdd 的基礎上對 Key(word) 排序
val sortByWordRdd = wcRdd.sortByKey(true) // 在 wcRdd 的基礎上對 Key(word) 排序 sortByWordRdd.collect res3: Array[(String, Int)] = Array((hello,5), (jerry,1), (kitty,1), (tom,2), (world,1))
在 Spark 1.3 中, 可以使用這樣一個 RDD 的 transform 操作:
使用 sortBy() 操作
// _._1 : 元組的第1項, 就是 word; true : 按升序排序 val sortByWordRdd = wcRdd.sortBy(_._1, true) sortByWordRdd.collect res3: Array[(String, Int)] = Array((hello,5), (jerry,1), (kitty,1), (tom,2), (world,1))
實現按 Value(count) 排序(降序)的 WordCount
思路1: 在 wcRdd 的基礎上, 先把K(word), V(count)反轉, 此時對Key(count)進行排序, 最后再反轉回去
// 在wcRdd的基礎上, 先把K(word), V(count)反轉, 此時對Key(count)進行排序, 最后再反轉回去 val sortByCountRdd = wcRdd.map(x => (x._2,x._1)).sortByKey(false).map(x => (x._2,x._1)) sortByCountRdd.collect res4: Array[(String, Int)] = Array((hello,5), (tom,2), (jerry,1), (kitty,1), (world,1))
思路2: 直接使用 sortBy() 操作
// _._2 : 元組的第2項, 就是 count; false : 按降序排序 val sortByCountRdd = wcRdd.sortBy(_._2, false) sortByCountRdd.collect res4: Array[(String, Int)] = Array((hello,5), (tom,2), (jerry,1), (kitty,1), (world,1))
關于spark-shell實現WordCount&按word排序&按count排序問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。