中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Spark的transformation和action算子簡介

發布時間:2020-06-25 14:35:11 來源:網絡 閱讀:641 作者:興趣e族 欄目:大數據

transformation算子

map(func)

返回一個新的分布式數據集,由每個原元素經過func函數處理后的新元素組成

filter(func)

返回一個新的數據集,由經過func函數處理后返回值為true的原元素組成

flatMap(func)

類似于map,但是每一個輸入元素,會被映射為0個或多個輸出元素,(因此,func函數的返回值是一個seq,而不是單一元素)

mapPartitions(func)

類似于map,對RDD的每個分區起作用,在類型為T的RDD上運行時,func的函數類型必須是Iterator[T]=>Iterator[U]

sample(withReplacement,fraction,seed)

根據給定的隨機種子seed,隨機抽樣出數量為fraction的數據

pipe(command,[envVars])

通過管道的方式對RDD的每個分區使用shell命令進行操作,返回對應的結果

union(otherDataSet)

返回一個新的數據集,由原數據集合參數聯合而成

intersection(otherDataset)

求兩個RDD的交集

distinct([numtasks])

返回一個包含源數據集中所有不重復元素的i新數據集

groupByKey([numtasks])

在一個由(K,v)對組成的數據集上調用,返回一個(K,Seq[V])對組成的數據集。默認情況下,輸出結果的并行度依賴于父RDD的分區數目,如果想要對key進行聚合的話,使用reduceByKey或者combineByKey會有更好的性能

reduceByKey(func,[numTasks])

在一個(K,V)對的數據集上使用,返回一個(K,V)對的數據集,key相同的值,都被使用指定的reduce函數聚合到一起,reduce任務的個數是可以通過第二個可選參數來配置的

sortByKey([ascending],[numTasks])

在類型為(K,V)的數據集上調用,返回以K為鍵進行排序的(K,V)對數據集,升序或者降序有boolean型的ascending參數決定

join(otherDataset,[numTasks])

在類型為(K,V)和(K,W)類型的數據集上調用,返回一個(K,(V,W))對,每個key中的所有元素都在一起的數據集

cogroup(otherDataset,[numTasks])

在類型為(K,V)和(K,W)類型的數據集上調用,返回一個數據集,組成元素為(K,Iterable[V],Iterable[W]) tuples

cartesian(otherDataset)

笛卡爾積,但在數據集T和U上調用時,返回一個(T,U)對的數據集,所有元素交互進行笛卡爾積

coalesce(numPartitions)

對RDD中的分區減少指定的數目,通常在過濾完一個大的數據集之后進行此操作

repartition(numpartitions)

將RDD中所有records平均劃分到numparitions個partition中


action算子

reduce(func)

通過函數func聚集數據集中的所有元素,這個函數必須是關聯性的,確保可以被正確的并發執行

collect()

在driver的程序中,以數組的形式,返回數據集的所有元素,這通常會在使用filter或者其它操作后,返回一個足夠小的數據子集再使用

count()

返回數據集的元素個數

first()

返回數據集的第一個元素(類似于take(1))

take(n)

返回一個數組,由數據集的前n個元素組成。注意此操作目前并非并行執行的,而是driver程序所在機器

takeSample(withReplacement,num,seed)

返回一個數組,在數據集中隨機采樣num個元素組成,可以選擇是否用隨機數替換不足的部分,seed用于指定的隨機數生成器種子

saveAsTextFile(path)

將數據集的元素,以textfile的形式保存到本地文件系統hdfs或者任何其他Hadoop支持的文件系統,spark將會調用每個元素的toString方法,并將它轉換為文件中的一行文本

takeOrderd(n,[ordering])

排序后的limit(n)

saveAsSequenceFile(path)

將數據集的元素,以sequencefile的格式保存到指定的目錄下,本地系統,hdfs或者任何其他hadoop支持的文件系統,RDD的元素必須由key-value對組成。并都實現了hadoop的writable接口或隱式可以轉換為writable

saveAsObjectFile(path)

使用Java的序列化方法保存到本地文件,可以被sparkContext.objectFile()加載
countByKey()
對(K,V)類型的RDD有效,返回一個(K,Int)對的map,表示每一個可以對應的元素個數

foreach(func)

在數據集的每一個元素上,運行函數func,t通常用于更新一個累加器變量,或者和外部存儲系統做交互

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

鄂托克前旗| 安宁市| 九龙县| 保靖县| 奉节县| 晋江市| 宜兰县| 盐池县| 湖州市| 商南县| 杭州市| 彭山县| 广灵县| 南平市| 盈江县| 阿图什市| 东乡县| 安塞县| 张北县| 长乐市| 德昌县| 赤水市| 祥云县| 台江县| 汉寿县| 高青县| 澳门| 东城区| 容城县| 辛集市| 叶城县| 类乌齐县| 晴隆县| 南陵县| 河西区| 永宁县| 随州市| 安国市| 衡东县| 伊金霍洛旗| 梁河县|