您好,登錄后才能下訂單哦!
這篇文章主要介紹“Spark與Spark-Streaming關系是什么”,在日常操作中,相信很多人在Spark與Spark-Streaming關系是什么問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Spark與Spark-Streaming關系是什么”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
spark程序是使用一個spark應用實例一次性對一批歷史數據進行處理,spark streaming是將持續不斷輸入的數據流轉換成多個batch分片,使用一批spark應用實例進行處理,側重點在Steaming上面。我們常說的Spark-Streaming依賴了Spark Core的意思就是,實際計算的核心框架還是spark。我們還是上一張老生常談的官方圖:
從原理上看,我們將spark-streaming轉變為傳統的spark需要什么?
需要構建4個東西:
一個靜態的 RDD DAG 的模板,來表示處理邏輯;
一個動態的工作控制器,將連續的 streaming data 切分數據片段,并按照模板復制出新的 RDD
DAG 的實例,對數據片段進行處理;
Receiver進行原始數據的產生和導入;Receiver將接收到的數據合并為數據塊并存到內存或硬盤中,供后續batch RDD進行消費;對長時運行任務的保障,包括輸入數據的失效后的重構,處理任務的失敗后的重調。
到此,關于“Spark與Spark-Streaming關系是什么”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。