中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

分布式數據集SparkRDD的依賴與緩存是怎樣的

發布時間:2021-11-29 11:03:22 來源:億速云 閱讀:137 作者:柒染 欄目:數據庫

這篇文章將為大家詳細講解有關分布式數據集SparkRDD的依賴與緩存是怎樣的,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。

RDD簡介

RDD(Resilient Distributed  Dataset)叫做分布式數據集,是Spark中最基本的數據抽象,它代表一個不可變、可分區、里面的元素可并行計算的集合。RDD是一個類

RDD的屬性

1.一個列表,存儲存取每個Partition的優先位置(preferred  location)。對于一個HDFS文件來說,這個列表保存的就是每個Partition所在的塊的位置。按照“移動數據不如移動計算”的理念,Spark在進行任務調度的時候,會盡可能地將計算任務分配到其所要處理數據塊的存儲位置。

2.保存了計算每個分區的函數,這個計算方法會應用到每一個數據塊上,Spark中RDD的計算是以分片為單位的,每個RDD都會實現compute函數以達到這個目的。compute函數會對迭代器進行復合,不需要保存每次計算的結果。

3.RDD之間的依賴關系。RDD的每次轉換都會生成一個新的RDD,所以RDD之間就會形成類似于流水線一樣的前后依賴關系。在部分分區數據丟失時,Spark可以通過這個依賴關系重新計算丟失的分區數據,而不是對RDD的所有分區進行重新計算。

4.RDD的分片函數(Partitioner),一個是基于哈希的HashPartitioner,另外一個是基于范圍的RangePartitioner。只有對于于key-value的RDD,才會有Partitioner,非key-value的RDD的Parititioner的值是None。Partitioner函數不但決定了RDD本身的分片數量,也決定了parent  RDD Shuffle輸出時的分片數量。

5.一組分片(Partition),即數據集的基本組成單位。對于RDD來說,每個分片都會被一個計算任務處理,并決定并行計算的粒度。用戶可以在創建RDD時指定RDD的分片個數,如果沒有指定,那么就會采用默認值。默認值就是程序所分配到的CPU  Core的數目。

如何創建RDD

1.通過序列化集合的方式創建RDD(parallelize,makeRDD)

2.通過讀取外部的數據源(testFile)

3.通過其他的rdd做transformation操作轉換成行的RDD

RDD的兩種算子:

1.Transformation

  • map(func) :返回一個新的分布式數據集,由每個原元素經過func函數轉換后組成

  • filter(func) : 返回一個新的數據集,由經過func函數后返回值為true的原元素組成

  • flatMap(func) :  類似于map,但是每一個輸入元素,會被映射為0到多個輸出元素(因此,func函數的返回值是一個Seq,而不是單一元素)

  • flatMap(func) :  類似于map,但是每一個輸入元素,會被映射為0到多個輸出元素(因此,func函數的返回值是一個Seq,而不是單一元素)

  • sample(withReplacement, frac, seed) :

  • 根據fraction指定的比例對數據進行采樣,可以選擇是否使用隨機數進行替換,seed用于指定隨機數生成器種子

  • union(otherDataset) : 返回一個新的數據集,由原數據集和參數聯合而成

  • reduceByKey(func, [numTasks]) :  在一個(K,V)對的數據集上使用,返回一個(K,V)對的數據集,key相同的值,都被使用指定的reduce函數聚合到一起。和groupbykey類似,任務的個數是可以通過第二個可選參數來配置的。

  • join(otherDataset, [numTasks]) :

  • 在類型為(K,V)和(K,W)類型的數據集上調用,返回一個(K,(V,W))對,每個key中的所有元素都在一起的數據集

  • groupWith(otherDataset, [numTasks]) :  在類型為(K,V)和(K,W)類型的數據集上調用,返回一個數據集,組成元素為(K, Seq[V], Seq[W])  Tuples。這個操作在其它框架,稱為CoGroup

  • cartesian(otherDataset) : 笛卡爾積。但在數據集T和U上調用時,返回一個(T,U)對的數據集,所有元素交互進行笛卡爾積。

  • intersection(otherDataset):對源RDD和參數RDD求交集后返回一個新的RDD

  • distinct([numTasks])) 對源RDD進行去重后返回一個新的RDD

  • groupByKey([numTasks]) 在一個(K,V)的RDD上調用,返回一個(K, Iterator[V])的RDD

  • reduceByKey(func, [numTasks])  在一個(K,V)的RDD上調用,返回一個(K,V)的RDD,使用指定的reduce函數,將相同key的值聚合到一起,與groupByKey類似,reduce任務的個數可以通過第二個可選的參數來設置

  • aggregateByKey(zeroValue)(seqOp, combOp, [numTasks])

  • sortByKey([ascending], [numTasks])  在一個(K,V)的RDD上調用,K必須實現Ordered接口,返回一個按照key進行排序的(K,V)的RDD

  • sortBy(func,[ascending], [numTasks]) 與sortByKey類似,但是更靈活

  • join(otherDataset, [numTasks])  在類型為(K,V)和(K,W)的RDD上調用,返回一個相同key對應的所有元素對在一起的(K,(V,W))的RDD

  • cogroup(otherDataset, [numTasks]) 在類型為(K,V)和(K,W)的RDD上調用,返回一個(K,(Iterable

2.Action

  • reduce(func) 通過func函數聚集RDD中的所有元素,這個功能必須是課交換且可并聯的

  • collect() 在驅動程序中,以數組的形式返回數據集的所有元素

  • count() 返回RDD的元素個數

  • first() 返回RDD的***個元素(類似于take(1))

  • take(n) 返回一個由數據集的前n個元素組成的數組

  • takeSample(withReplacement,num, [seed])  返回一個數組,該數組由從數據集中隨機采樣的num個元素組成,可以選擇是否用隨機數替換不足的部分,seed用于指定隨機數生成器種子

  • takeOrdered(n, [ordering])

  • saveAsTextFile(path)  將數據集的元素以textfile的形式保存到HDFS文件系統或者其他支持的文件系統,對于每個元素,Spark將會調用toString方法,將它裝換為文件中的文本

  • saveAsSequenceFile(path) 將數據集中的元素以Hadoop  sequencefile的格式保存到指定的目錄下,可以使HDFS或者其他Hadoop支持的文件系統。

  • saveAsObjectFile(path)

  • countByKey() 針對(K,V)類型的RDD,返回一個(K,Int)的map,表示每一個key對應的元素個數。

  • foreach(func) 在數據集的每一個元素上,運行函數func進行更新。

RDD的依賴關系

1.窄依賴

窄依賴指的是每一個父RDD的Partition最多被子RDD的一個Partition使用

總結:窄依賴我們形象的比喻為獨生子女

2.寬依賴

寬依賴指的是多個子RDD的Partition會依賴同一個父RDD的Partition

總結:窄依賴我們形象的比喻為超生

3.Lineage(血統)

RDD只支持粗粒度轉換,即在大量記錄上執行的單個操作。將創建RDD的一系列Lineage(即血統)記錄下來,以便恢復丟失的分區。RDD的Lineage會記錄RDD的元數據信息和轉換行為,當該RDD的部分分區數據丟失時,它可以根據這些信息來重新運算和恢復丟失的數據分區。

DAG的生成

DAG(Directed Acyclic  Graph)叫做有向無環圖,原始的RDD通過一系列的轉換就就形成了DAG,根據RDD之間的依賴關系的不同將DAG劃分成不同的Stage,對于窄依賴,partition的轉換處理在Stage中完成計算。對于寬依賴,由于有Shuffle的存在,只能在parent  RDD處理完成后,才能開始接下來的計算,因此寬依賴是劃分Stage的依據。

RDD的緩存

Spark速度非常快的原因之一,就是在不同操作中可以在內存中持久化或緩存個數據集。當持久化某個RDD后,每一個節點都將把計算的分片結果保存在內存中,并在對此RDD或衍生出的RDD進行的其他動作中重用。這使得后續的動作變得更加迅速。RDD相關的持久化和緩存,是Spark最重要的特征之一。可以說,緩存是Spark構建迭代式算法和快速交互式查詢的關鍵。

找依賴關系劃分stage的目的之一就是劃分緩存, 如何通過stage的劃分設置緩存?

(1)在窄依賴想設置緩存時用cache

(2)在寬依賴想設置緩存時用checkpoint

如何設置cache和checkpoint?

cache:someRDD.cache()就添加成功緩存,放入到內存中

someRDD.persist(StorageLevel.MEMORY_AND_DISK):根據自己的需要設置緩存的位置(內存和硬盤)

checkpoint:可以把RDD計算后的數據存儲在本地磁盤上,也可以是hdfs

sc.setCheckpointDIr("hdfs://hadoop1:9000/checkpoint")設置checkpoint的路徑  在寬依賴前設置

someRDD.checkpoint()設置checkpoint

cache 和checkpoint的區別

cache只是緩存數據,不改變RDD的依賴關系,checkpoint生成了一個新的RDD,后面的RDD將依賴新的RDD依賴關系已經改變  。數據恢復的順序:checkpoint ---》cache--》重算

關于分布式數據集SparkRDD的依賴與緩存是怎樣的就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

化隆| 视频| 伊通| 柘荣县| 卢龙县| 合肥市| 江阴市| 视频| 四会市| 寿光市| 黄山市| 武功县| 连城县| 琼结县| 正镶白旗| 宜丰县| 安岳县| 皋兰县| 同江市| 黔西县| 锦屏县| 泸州市| 晴隆县| 南澳县| 吉水县| 清河县| 沙河市| 博白县| 肇州县| 乐都县| 安仁县| 抚宁县| 驻马店市| 济源市| 尼木县| 开江县| 乐清市| 韩城市| 屏山县| 阳西县| 涡阳县|