中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop中MapTask如何實現

發布時間:2021-12-08 10:00:00 來源:億速云 閱讀:132 作者:小新 欄目:云計算

小編給大家分享一下Hadoop中MapTask如何實現,希望大家閱讀完這篇文章之后都有所收獲,下面讓我們一起去探討吧!

         
         整體執行流程 
Hadoop中MapTask如何實現 
         如上圖示,MapTask的整個處理流程分五個階段: 
         ●read階段:通過RecordReader從InputSplit分片中將數據解析成一個個key/value。 
         ●map階段:將由RecordReader解析出的key/value交給map()方法處理,并生成一個個新的key/value。 
         ●collect階段:將map()中新生成key/value由OutpCollector.collect()寫入內存中的環形數據緩沖區。 
         ●spill階段:當環形緩沖區達到一定閥值后,會將數據寫到本地磁盤上,生成一個spill文件。在寫文件之前,會先將數據進行一次本地排序,必要的時候(按配置要求)還會對數據進行壓縮。 
         ●combine階段:當所有數據處理完后,將所有的臨時的spill文件進行一次合并,最終之生成一個數據文件。 
     
         接下來我們會對該流程中最重要的collect、spill和combine三個階段進行更深入的學習。 
         Collect過程 
         前階段的map中新生成key/value對后,會調用OutpCollector.collect(key,value),在該方法內部,先調用Partitioner.getPartition()獲取該記錄的分區號,然后將<key,value,partition>傳給MapOutputBuffer.collect()作進一步的處理。 
         MapOutputBuffer內部使用了一個內部的環形的緩沖區來暫時保存用戶的輸出數據,當緩沖區使用率達到一定閥值后,由SpillThread線程將緩沖區中的數據spill到本地磁盤上,當所有的數據處理完畢后,對所有的文件進行合并,最終只生成一個文件。該數據緩沖區直接用想到MapTask的寫效率。 
         環形緩沖區使得collect階段和spill階段可以并行處理。 
         MapOutputBuffer內部采用了兩級索引結構,涉及三個環形的內存緩沖區,分別是kvoffsets、kvindices和kvbuffer,這個環形緩沖區的大小可以通過io.sot.mb來設置,默認大小是100MB,圖示如下: 
Hadoop中MapTask如何實現
         kvoffsets即偏移量索引數組,用于保存key/value在kvindices中的偏移量。一個key/value對在kvoffsets數組中占一個int的大小,而在kvindices數組中站3個int的大小(如上圖示,包括分區號partition,key的起始位置和value的起始位置)。 
         當kvoffsets的使用率超過io.sort.spill.percent(默認為80%)后,便會觸發SpillTread線程將數據spill到磁盤上。 
         kvindices即文職索引數組,用于保存實際的key/value在數據緩沖區kvbuffer中的起始位置。 
         kvbuffer即數據局緩沖區,用于實際保存key/value,默認情況下可使用io.sort.mb的95%,當該緩沖區使用率使用率超過io.sort.spill.percent后,便會觸發SpillTread線程將數據spill到磁盤上。 

         Spill過程 
         在collect階段的執行過程中,當內存中的環形數據緩沖區中的數據達到一定發之后,便會觸發一次Spill操作,將部分數據spill到本地磁盤上。SpillThread線程實際上是kvbuffer緩沖區的消費者,主要代碼如下:

Java代碼  Hadoop中MapTask如何實現

  1. spillLock.lock();  

  2. while(true){  

  3.    spillDone.sinnal();  

  4.    while(kvstart == kvend){  

  5.       spillReady.await();  

  6.    }  

  7.    spillDone.unlock();  

  8.    //排序并將緩沖區kvbuffer中的數據spill到本地磁盤上  

  9.    sortAndSpill();  

  10.    spillLock.lock;  

  11.    //重置各個指針,為下一下spill做準備  

  12.    if(bufend < bufindex && bufindex < bufstart){  

  13.       bufvoid = kvbuffer.length;  

  14.    }  

  15.    vstart = vend;  

  16.    bufstart = bufend;  

  17. }  

  18. spillLock.unlock();  

  19.            


         sortAndSpill()方法中的內部流程是這樣的: 
         第一步,使用用快速排序算法對kvbuffer[bufstart,bufend)中的數據排序,先對partition分區號排序,然后再按照key排序,經過這兩輪排序后,數據就會以分區為單位聚集在一起,且同一分區內的數據按key有序; 
         第二步,按分區大小由小到大依次將每個分區中的數據寫入任務的工作目錄下的臨時文件中,如果用戶設置了Combiner,則寫入文件之前,會對每個分區中的數據做一次聚集操作,比如<key1,val1>和<key1,val2>合并成<key1,<val1,val2>>; 
         第三步,將分區數據的元信息寫到內存索引數據結構SpillRecord中。分區的元數據信息包括臨時文件中的偏移量、壓縮前數據的大小和壓縮后數據的大小。 

         Combine過程 
         當任務的所有數據都處理完后,MapTask會將該任務所有的臨時文件年合并成一個大文件,同時生成相應的索引文件。在合并過程中,是以分區文單位進行合并的。 
         讓每個Task最終生成一個文件,可以避免同時打開大量文件和對小文件產生隨機讀帶來的開銷。

看完了這篇文章,相信你對“Hadoop中MapTask如何實現”有了一定的了解,如果想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

文安县| 宁远县| 洪湖市| 佳木斯市| 泰安市| 尚志市| 乌审旗| 弥勒县| 林西县| 寿光市| 玉环县| 新津县| 清徐县| 威远县| 左权县| 当涂县| 舞阳县| 江北区| 三台县| 邛崃市| 花垣县| 安乡县| 余干县| 通河县| 金坛市| 望奎县| 丹东市| 丰宁| 丰都县| 五河县| 香港| 安新县| 勐海县| 镇平县| 左权县| 富源县| 瓦房店市| 龙陵县| 北宁市| 雅江县| 龙江县|