中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Spark 編程實戰之經典算法TOP K

發布時間:2020-05-16 08:57:13 來源:網絡 閱讀:1505 作者:ChinaUnicom110 欄目:大數據
Top K
Top K算法有兩步,一是統計詞頻,二是找出詞頻最高的前K個詞。
1.實例描述
假設取Top 1,則有如下輸入和輸出。
輸入:
Hello World Bye World
Hello Hadoop Bye Hadoop
Bye Hadoop Hello Hadoop
輸出:
詞Hadoop 詞頻4
2.設計思路
首先統計WordCount的詞頻,將數據轉化為(詞,詞頻)的數據對,第二個階段采用分
治的思想,求出RDD每個分區的Top K,最后將每個分區的Top K結果合并以產生新的集
合,在集合中統計出Top K的結果。每個分區由于存儲在單機的,所以可以采用單機求Top
K的方式。本例采用堆的方式。也可以直接維護一個含K個元素的數組,感興趣的讀者可以
參考其他資料了解堆的實現。
3.代碼示例
Top K算法示例代碼如下:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
object TopK {
def main(args:Array[String]) {
/*執行WordCount,統計出最高頻的詞*/
val spark = new SparkContext("local", "TopK",
System.getenv("SPARK_HOME"), SparkContext.jarOfClass(this.getClass))
val count = spark.textFile("data").flatMap(line =>
line.split(" ")).map(word =>
(word, 1)).reduceByKey(_ + _)
/*統計RDD每個分區內的Top K查詢*/
val topk = count.mapPartitions(iter => {
while(iter.hasNext) {
putToHeap(iter.next())
}
getHeap().iterator
}
).collect()
/*將每個分區內統計出的TopK查詢合并為一個新的集合,統計出TopK查詢*/
val iter = topk.iterator
while(iter.hasNext) {
putToHeap(iter.next())
}
val outiter=getHeap().iterator
/*輸出TopK的值*/
println("Topk 值 :")
while(outiter.hasNext) {
println("\n 詞頻:"+outiter.next()._1+" 詞:"+outiter.next()._2)
}
spark.stop()
}
}
def putToHeap(iter : (String, Int)) {
/*數據加入含k個元素的堆中*/
……
}
def getHeap(): Array[(String, Int)] = {
/*獲取含k個元素的堆中的元素*/
val a=new Array[(String, Int)]()
……
}
4.應用場景
Top K的示例模型可以應用在求過去一段時間消費次數最多的消費者、訪問最頻繁的IP
地址和最近、更新、最頻繁的微博等應用場景。


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

昌邑市| 自治县| 新乐市| 惠州市| 五台县| 高要市| 自贡市| 离岛区| 临城县| 巴林右旗| 临沂市| 贵州省| 白河县| 岳阳县| 许昌县| 余姚市| 青龙| 宁远县| 利辛县| 福泉市| 丰城市| 娄烦县| 登封市| 江华| 南昌市| 南和县| 陵川县| 绍兴市| 合川市| 修文县| 礼泉县| 商洛市| 明星| 白银市| 安康市| 噶尔县| 彰化县| 昂仁县| 吉首市| 建阳市| 建平县|