中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hdfs中怎么配置磁盤存儲策略

發布時間:2021-07-13 11:18:31 來源:億速云 閱讀:262 作者:Leah 欄目:云計算

這篇文章將為大家詳細講解有關Hdfs中怎么配置磁盤存儲策略,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。

一、Hdfs磁盤存儲策略

1、 指定本地目錄存儲策略

  • data目錄為Hot策略對應DISK;

  • data1目錄為Cold策略對應ARCHIVE;

<property>
      <name>dfs.datanode.data.dir</name>
      <value>[DISK]/opt/beh/data/namenode/dfs/data,[ARCHIVE]/opt/beh/data/namenode/dfs/data1</value>
    </property>
  • 重啟hdfs

$ stop-dfs.sh
$ start-dfs.sh

2、指定hdfs目錄的存儲策略

  • 查看hdfs存儲策略

$ hdfs storagepolicies -listPolicies
Block Storage Policies:
        BlockStoragePolicy{COLD:2, storageTypes=[ARCHIVE], creationFallbacks=[], replicationFallbacks=[]}
        BlockStoragePolicy{WARM:5, storageTypes=[DISK, ARCHIVE], creationFallbacks=[DISK, ARCHIVE], replicationFallbacks=[DISK, ARCHIVE]}
        BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]}
        BlockStoragePolicy{ONE_SSD:10, storageTypes=[SSD, DISK], creationFallbacks=[SSD, DISK], replicationFallbacks=[SSD, DISK]}
        BlockStoragePolicy{ALL_SSD:12, storageTypes=[SSD], creationFallbacks=[DISK], replicationFallbacks=[DISK]}
        BlockStoragePolicy{LAZY_PERSIST:15, storageTypes=[RAM_DISK, DISK], creationFallbacks=[DISK], replicationFallbacks=[DISK]}
  • 創建2個hdfs目錄

$ hadoop fs -mkdir /Cold_data  
$ hadoop fs -mkdir /Hot_data
  • 指定hdfs目錄存儲策略

$  hdfs storagepolicies -setStoragePolicy -path hdfs://breath:9000/Cold_data -policy COLD     
Set storage policy COLD on hdfs://breath:9000/Cold_data
$  hdfs storagepolicies -setStoragePolicy -path hdfs://breath:9000/Hot_data -policy HOT         
Set storage policy HOT on hdfs://breath:9000/Hot_data
  • 查看2個目錄的存儲策略是否正確

$ hdfs storagepolicies -getStoragePolicy -path /Cold_data
The storage policy of /Cold_data:
BlockStoragePolicy{COLD:2, storageTypes=[ARCHIVE], creationFallbacks=[], replicationFallbacks=[]}
$ hdfs storagepolicies -getStoragePolicy -path /Hot_data 
The storage policy of /Hot_data:
BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]}

3、存儲測試

  • 查看未上傳文件存儲目錄的大小

$ cd /opt/beh/data/namenode/dfs
$ du -sh *
38M     data
16K     data1
30M     name
14M     namesecondary
  • 生成一個1000M大小的文件

$  dd if=/dev/zero of=test.txt bs=1000M count=1
 
記錄了1+0 的讀入
記錄了1+0 的寫出
1048576000字節(1.0 GB)已復制,3.11214 秒,337 MB/秒
  • 將生成的文件上傳到/Cold_data目錄

$ hadoop fs -put test.txt /Cold_data
  • [x] 查看此時存儲目錄的大小

$ du -sh *
38M     data
1008M   data1
30M     name
14M     namesecondary

4、測試結果說明

上傳的文件全部存儲在了data1目錄下

因為hdfs上的/Cold_data指定的是COLD 策略,與hdfs-site.xml里面ARCHIVE策略的data1目錄相對應,所以文件存儲達到了測試目的

二、Hdfs預留空間配置

1、參數修改

  • 修改hdfs-site.xml配置文件,添加參數

<property>
     <name>dfs.datanode.du.reserved</name>
     <value>32212254720</value>
</property>

<property>
      <name>dfs.datanode.data.dir</name>
      <value>[ARCHIVE]/opt/beh/data/namenode/dfs/data</value>
    </property>
  • 說明

設置dfs.datanode.du.reserved參數,32212254720表示指定預留空間為30G;

修改dfs.datanode.data.dir,只保留一個本地存儲目錄;

-重啟hdfs

$ stop-dfs.sh
$ start-dfs.sh

2、上傳文件

  • 查看磁盤空間

$ df -h   
文件系統                 容量  已用  可用 已用% 掛載點
/dev/mapper/centos-root   46G   14G   32G   31% /
devtmpfs                 7.8G     0  7.8G    0% /dev
tmpfs                    7.8G     0  7.8G    0% /dev/shm
tmpfs                    7.8G  8.5M  7.8G    1% /run
tmpfs                    7.8G     0  7.8G    0% /sys/fs/cgroup
/dev/vda1                497M  125M  373M   25% /boot
tmpfs                    1.6G     0  1.6G    0% /run/user/0
tmpfs                    1.6G     0  1.6G    0% /run/user/1000
  • 往hdfs上上傳文件,一次上傳一個2G大小的文件

$ hadoop fs -put test1.txt /Cold_data/test1.txt 
$ hadoop fs -put test1.txt /Cold_data/test2.txt 
。
。
。
$ hadoop fs -put test1.txt /Cold_data/test7.txt
$ hadoop fs -put test1.txt /Cold_data/test8.txt
16/11/12 16:30:54 INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.EOFException: Premature EOF: no length prefix available
        at org.apache.hadoop.hdfs.protocolPB.PBHelper.vintPrefixed(PBHelper.java:2239)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1451)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1373)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:600)
16/11/12 16:30:54 INFO hdfs.DFSClient: Abandoning BP-456596110-192.168.134.129-1450512233024:blk_1073744076_3254
16/11/12 16:30:54 INFO hdfs.DFSClient: Excluding datanode DatanodeInfoWithStorage[10.10.1.31:50010,DS-01c3c362-44f4-46eb-a8d8-57d2c2d5f196,ARCHIVE]
16/11/12 16:30:54 WARN hdfs.DFSClient: DataStreamer Exception
org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /Cold_data/test8.txt._COPYING_ could only be replicated to 0 nodes instead of minReplication (=1).  There are 1 datanode(s) running and 1 node(s) are excluded in this operation.
        at org.apache.hadoop.hdfs.server.blockmanagement.BlockManager.chooseTarget4NewBlock(BlockManager.java:1541)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:3289)
        at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.addBlock(NameNodeRpcServer.java:668)
        at org.apache.hadoop.hdfs.server.namenode.AuthorizationProviderProxyClientProtocol.addBlock(AuthorizationProviderProxyClientProtocol.java:212)
        at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.addBlock(ClientNamenodeProtocolServerSideTranslatorPB.java:483)
        at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:619)
        at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:1060)
        at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2044)
        at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2040)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:415)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1671)
        at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2038)

        at org.apache.hadoop.ipc.Client.call(Client.java:1468)
        at org.apache.hadoop.ipc.Client.call(Client.java:1399)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:232)
        at com.sun.proxy.$Proxy9.addBlock(Unknown Source)
        at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.addBlock(ClientNamenodeProtocolTranslatorPB.java:399)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)
        at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:187)
        at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
        at com.sun.proxy.$Proxy10.addBlock(Unknown Source)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.locateFollowingBlock(DFSOutputStream.java:1544)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1361)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:600)
put: File /Cold_data/test8.txt._COPYING_ could only be replicated to 0 nodes instead of minReplication (=1).  There are 1 datanode(s) running and 1 node(s) are excluded in this operation.
  • 分析

此時數據目錄/opt/beh/data/namenode/dfs的空間大小如下

$ cd /opt/beh/data/namenode/dfs
$ du -sh *
15G     data
12K     data1
34M     name
19M     namesecondary
  • [x] 查看此時的磁盤空間

$ df -h
文件系統                 容量  已用  可用 已用% 掛載點
/dev/mapper/centos-root   46G   27G   19G   59% /
devtmpfs                 7.8G     0  7.8G    0% /dev
tmpfs                    7.8G     0  7.8G    0% /dev/shm
tmpfs                    7.8G  8.5M  7.8G    1% /run
tmpfs                    7.8G     0  7.8G    0% /sys/fs/cgroup
/dev/vda1                497M  125M  373M   25% /boot
tmpfs                    1.6G     0  1.6G    0% /run/user/0
tmpfs                    1.6G     0  1.6G    0% /run/user/1000

3、總結


  1. 出現報錯說明磁盤預留空間配置生效,但是查看磁盤空間可以看到,本地目錄剩余可用空間并不是Hdfs設置的預留空間;

  2. Hdfs對一個數據目錄的可用存儲認定是當前目錄所在磁盤的總空間(此處為/目錄46G),并不是當前目錄的可用空間。

  • 實際上的HDFS的剩余空間計算:

當前目錄(磁盤)的總空間46G - Hdfs已使用的總空間15G=31G

而此時預留空間為30G,因此hdfs剩余的可用空間為1G,所以當再次上傳一個大小為2G的文件時,出現以上的報錯。

因為此處測試直接使用了/目錄的存儲,其它非Hdfs占用了部分空間,當hdfs的數據目錄對單塊磁盤一一對應,每塊磁盤的剩余可用空間大小與預留空間配置的值相當時,就不會再往該磁盤寫入數據。

關于Hdfs中怎么配置磁盤存儲策略就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

蕲春县| 大方县| 青铜峡市| 宁城县| 澄城县| 晋宁县| 宁化县| 木里| 江门市| 泰顺县| 广灵县| 新乡县| 安多县| 郎溪县| 乌拉特中旗| 治县。| 柯坪县| 庄浪县| 华蓥市| 巴中市| 雷波县| 澄迈县| 前郭尔| 车致| 兴仁县| 鹿泉市| 图木舒克市| 丹凤县| 沽源县| 晋中市| 旅游| 岫岩| 容城县| 普陀区| 海林市| 吉木乃县| 晋宁县| 四平市| 吴堡县| 正宁县| 安陆市|