您好,登錄后才能下訂單哦!
小編給大家分享一下怎么用Eclipse開發Spark2.0,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
1.首先我用的是scala版本的ide. 這個可以去官網下載。先介紹下我的版本:hadoop2.7.2+spark2.0+scala2.11+java1.7
首先打開eclipse,設置好workspace后,就能開始開發了
2.新建scala Project .起個項目的名字
3.新建個scala object .開始寫代碼
注意需要導入相關的包。主要有scala的包還有spark的包,spark需要的包主要在spark安裝目錄下的jar文件下的所有包
4.廢話少說,直接上代碼
object TestSparkStreaming {
def main(args: Array[String]): Unit = {
import org.apache.spark._
import org.apache.spark.streaming._
import org.apache.spark.streaming.StreamingContext._ // not necessary since Spark 1.3
// Create a local StreamingContext with two working thread and batch interval of 1 second.
// The master requires 2 cores to prevent from a starvation scenario.
val conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount")
val ssc = new StreamingContext(conf, Seconds(5))
val lines = ssc.socketTextStream("master", 9999)
// val lines = ssc.textFileStream("/home/usr/temp/")
val words = lines.flatMap(_.split(" "))
import org.apache.spark.streaming.StreamingContext._ // not necessary since Spark 1.3
// Count each word in each batch
val pairs = words.map(word => (word, 1))
val wordCounts = pairs.reduceByKey(_ + _)
// Print the first ten elements of each RDD generated in this DStream to the console
wordCounts.print()
ssc.start() // Start the computation
ssc.awaitTermination()
}
}
5.在linux 終端連上9999端口 nc-lk 9999
輸入一些單詞
6.可以看到eclipse的控制臺會輸出結果
以上是“怎么用Eclipse開發Spark2.0”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。