中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

大數據之HDFS命令行基本操作

發布時間:2020-07-27 18:27:38 來源:網絡 閱讀:1213 作者:萬和IT教育 欄目:大數據

1、 課程簡介

  • HDFS是Hadoop大數據平臺中的分布式文件系統,為上層應用或其他大數據組件提供數據存儲,如Hive,Mapreduce,Spark,HBase等。
  • 本文章中所有命令均在CentOS-6.4-x86_64,hadoop-2.5.2,jdk1.8.0_152,zookeeper-3.4.11中運行通過,為減少linux權限對初學者造成影響,所有命令均在linux的root權限下進行操作。

2、理論回顧

  • Hadoop技術本身包含HDFS、Map/Reduce。HDFS作海量數據存儲之用;M/R作海量數據計算之用。
  • HDFS包含namenode、datanode。namenode對datanode中的數據建立了索引。
  • zookeeper作為協調服務,為namenode提供了高可用性。

3、基本操作

? 注意:"# ./hdfs dfs -ls /"命令前的"#"代表當前登錄用戶是root。運行路徑位于hadoop目錄中的bin文件夾下。命令中的"."代表當前目錄。命令中涉及的info文件需要提前創建好。如下圖所示:

大數據之HDFS命令行基本操作

3.1 -ls 功能:顯示目錄信息。

# ./hdfs dfs -ls /
drwxr-xr-x   - root supergroup          0 2018-07-30 00:09 /hbase
drwxr-xr-x   - root supergroup          0 2018-06-23 15:22 /output
drwx------   - root supergroup          0 2018-07-31 00:32 /tmp
drwxr-xr-x   - root supergroup          0 2018-07-31 00:41 /user
-rw-r--r--   2 root supergroup         77 2018-04-22 02:34 /wordcount

3.2 -mkdir 功能:在HDFS文件系統上創建目錄。

# ./hdfs dfs -mkdir /wanhe
# ./hdfs dfs -ls /
drwxr-xr-x   - root supergroup          0 2018-07-30 00:09 /hbase
drwxr-xr-x   - root supergroup          0 2018-06-23 15:22 /output
drwx------   - root supergroup          0 2018-07-31 00:32 /tmp
drwxr-xr-x   - root supergroup          0 2018-07-31 00:41 /user
drwxr-xr-x   - root supergroup          0 2018-09-12 18:00 /wanhe
-rw-r--r--   2 root supergroup         77 2018-04-22 02:34 /wordcount

3.3 -put 功能:上傳本地文件到HDFS指定目錄。

# ./hdfs dfs -put info /wanhe
# ./hdfs dfs -ls /wanhe
-rw-r--r--   2 root supergroup         38 2018-09-12 18:10 /wanhe/info

3.4 -get 功能:從hdfs下載文件到本地。

# rm -rf info
# ls
container-executor  hadoop  hadoop.cmd  hdfs  hdfs.cmd  mapred  mapred.cmd  rcc  test-container-executor  yarn  yarn.cmd
# ./hdfs dfs -get /wanhe/info ./
# ls
container-executor  hadoop  hadoop.cmd  hdfs  hdfs.cmd  info  mapred  mapred.cmd  rcc  test-container-executor  yarn  yarn.cmd

3.5 -rm 功能:從HDFS刪除文件。

# ./hdfs dfs -rm /wanhe/info
# ./hdfs dfs -ls /wanhe
空

3.6 -moveFromLocal 功能:剪切本地文件到HDFS

# ./hdfs dfs -moveFromLocal info /wanhe
# ./hdfs dfs -ls /wanhe
-rw-r--r--   2 root supergroup         38 2018-09-12 22:04 /wanhe/info
# ls
container-executor  hadoop  hadoop.cmd  hdfs  hdfs.cmd  mapred  mapred.cmd  rcc  test-container-executor  yarn  yarn.cmd

3.7 -cat 功能:顯示文件內容。

 # ./hdfs dfs -cat /wanhe/info
 jiangsuwanhe

3.8 -appendToFile 功能:在文件末尾追加數據。

 # ./hdfs dfs -appendToFile info /wanhe/info
 # ./hdfs dfs -cat /wanhe/info
 jiangsuwanhe
 jiangsuwanhe

3.9 -chmod 功能:更改文件所屬權限。

# ./hdfs dfs -ls /wanhe
-rw-r--r--   2 root supergroup         51 2018-09-12 22:13 /wanhe/info
# ./hdfs dfs -chmod 777 /wanhe/info
# ./hdfs dfs -ls /wanhe
-rwxrwxrwx   2 root supergroup         51 2018-09-12 22:13 /wanhe/info

3.10 -cp 功能:實現文件的拷貝。

將/wanhe/info拷貝到/tmp下:
# ./hdfs dfs -cp /wanhe/info /tmp/
# ./hdfs dfs -ls /tmp
-rw-r--r--   2 root supergroup         51 2018-09-12 22:20 /tmp/info

3.11 -mv 功能:移動文件。

將/wanhe/info移動到 /user下
# ./hdfs dfs -mv /wanhe/info /user/
# ./hdfs dfs -ls /wanhe
空
# ./hdfs dfs -ls /user
-rwxrwxrwx   2 root supergroup         51 2018-09-12 22:13 /user/info

3.12 -df 功能:統計文件系統的可用空間信息。

# ./hdfs dfs -df -h /
Filesystem            Size   Used  Available  Use%
hdfs://master:9000  17.5 G  352 K     11.4 G    0%

3.13 -du 功能:統計文件夾的大小信息。

# ./hdfs dfs -du /user
51  /user/info

3.14 -count 功能: 統計一個指定目錄下的文件數量。

# ./hdfs dfs -count /user
 2            1                 51 /user
 第一列2表示/user/下文件夾的數量,第二列1表示/user/下文件的個數。51表示/user/目錄下所有文件占用的磁盤容量(不計算副本個數)。

4、總結

? HDFS中的命令行操作類似于linux命令,熟練使用linux命令便可以熟練的使用命令行操作HDFS。后面我們將連載大數據系列博客,歡迎關注和交流。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

石棉县| 临夏市| 江北区| 犍为县| 永清县| 密云县| 北辰区| 永善县| 咸丰县| 准格尔旗| 藁城市| 四川省| 杭州市| 祁连县| 丹江口市| 双辽市| 寻乌县| 历史| 长汀县| 双江| 乌海市| 高安市| 广安市| 桑日县| 区。| 综艺| 通化市| 扎兰屯市| 南漳县| 淮阳县| 孝昌县| 安徽省| 建德市| 翼城县| 酒泉市| 德昌县| 青岛市| 合肥市| 洛南县| 淮滨县| 大连市|