您好,登錄后才能下訂單哦!
本篇內容介紹了“hadoop分布式文件系統怎么導入和導出數據”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
weblog_20140319.txt文件從本地文件系統復制到HDFS得一個指定文件夾下
1.在HDFS中創建一個存放目標文件的文件夾:hadoop fs -mkdir /data/weblogs. 2.將目標文件從本地系統復制到剛才新建的文件夾下:hadoop fs -copyFromLocal weblog_20140319.txt /data/weblogs 3.列出HDFS上weblog_20140319.txt文件的信息:hadoop fs -ls /data/weblogs/weblog_20140319.txt 4.將HDFS上的weblog_20140319.txt復制到本地系統的當前文件夾下:hadoop fs -copyToLocal /data/weblogs/weblog_20140319.txt ./weblog_20140319.txt
在Hadoop上處理的一些結果數據可能直接被外部系統使用,也可能需要其他系統進一步處理,或者MapReduce框架根本不符合應用場景,任何類似的情形都需要從HDFS上導出數據,下載數據最簡單的方式就是Hadoop Shell.
從HDFS復制文件到本地系統時,需注意: 1.具有足夠的可用空間 2.網絡連接速度(HDFS中的文件大小在幾個TB到幾十個TB非常常見的,在1Gbit網絡環境下,從HDFS中導出10TB數據到本地文件系統,最好也要消耗23個小時,當然前提還是具有足夠的可用空間)
“hadoop分布式文件系統怎么導入和導出數據”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。