中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

HDFS中FileSystem是什么類

發布時間:2021-12-09 14:04:38 來源:億速云 閱讀:173 作者:小新 欄目:云計算

小編給大家分享一下HDFS中FileSystem是什么類,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

首先來看一下, FileSystem(org.apache.hadoop.fs.FileSystem), 這是一個抽象類, 是所有文件系統的父類.

而我們要從HDFS(Hadoop Distributed FileSystem)下載數據, 應該獲取一個DistributedFileSystem的實例,那么如何獲取一個DistributedFileSystem的實例呢?

FileSystem fs = FileSystem.get(new Configuration());

在FileSystem中有3個重載的get()方法

// 1.通過配置文件獲取一個FileSystem實例
public static FileSystem get(Configuration conf)
// 2.通過指定的FileSystem的URI, 配置文件獲取一個FileSystem實例
public static FileSystem get(URI uri, Configuration conf)
// 3.通過指定的FileSystem的URI, 配置文件, FileSystem用戶名獲取一個FileSystem實例
public static FileSystem get(final URI uri, final Configuration conf, final String user)

先調用FileSystem.get(Configuration conf)方法,再調用重載方法FileSystem.get(URI uri, Configuration conf)

public static FileSystem get(URI uri, Configuration conf) throws IOException {
    // schem是FileSystem具體的URI方案如: file, hdfs, Webhdfs, har等等
    String scheme = uri.getScheme();    // scheme = hdfs
    // authority是NameNode的主機名, 端口號
    String authority = uri.getAuthority();    // authority = node1:9000
    ...
    // disableCacheName = fs.hdfs.impl.disable.cache
    String disableCacheName = String.format("fs.%s.impl.disable.cache", scheme);    
    // 讀取配置文件, 判斷是否禁用緩存
    if (conf.getBoolean(disableCacheName, false)) {    // 若禁用緩存
      return createFileSystem(uri, conf);    // 直接調用創建FileSystem實例的方法
    }
    // 不禁用緩存, 先從FileSystem的靜態成員變量CACHE中獲取FileSystem實例
    return CACHE.get(uri, conf);
}

再調用FileSystem$Cache.get(URI uri, Configuration conf)方法(Cache是FileSystem的靜態內部類)

FileSystem get(URI uri, Configuration conf) throws IOException{
      Key key = new Key(uri, conf);    // key = (root (auth:SIMPLE))@hdfs://node1:9000
      return getInternal(uri, conf, key);
}

再調用FileSystem$Cache.getInternal(URI uri, Configuration conf, FileSystem$Cache$Key key)方法(Key又是Cache的靜態內部類)

private FileSystem getInternal(URI uri, Configuration conf, Key key) throws IOException{
      FileSystem fs;
      synchronized (this) {
        // map是Cache中用來緩存FileSystem實例的成員變量, 其類型為HashMap<Key, FileSystem>
        fs = map.get(key);
      }
      if (fs != null) {    // 如果從緩存map中獲取到了相應的FileSystem實例
        return fs;    // 則返回這個實例
      }
      // 否則, 調用FileSystem.createFileSystem(URI uri, Configuration conf)方法, 創建FileSystem實例
      fs = createFileSystem(uri, conf);
      /* 分割線1, 期待著createFileSystem()方法的返回 */
      synchronized (this) { // refetch the lock again
        /*
         * 在多線程環境下, 可能另一個客戶端(另一個線程)創建好了一個DistributedFileSystem實例, 并緩存到了map中
         * 所以, 這時候就把當前客戶端新創建的DistributedFileSystem實例注銷
         * 其實這是一個特殊的單例模式, 一個key映射一個DistributedFileSystem實例
         */
        FileSystem oldfs = map.get(key);
        if (oldfs != null) { // a file system is created while lock is releasing
          fs.close(); // close the new file system
          return oldfs;  // return the old file system
        }
        /*
         * now insert the new file system into the map
         * 緩存當前新創建的DistributedFileSystem實例到map中
         */
        fs.key = key;
        map.put(key, fs);
        ...
        return fs;
      }
}

來自分割線1, 先調用FileSystem.createFileSystem(URI uri, Configuration conf)方法

private static FileSystem createFileSystem(URI uri, Configuration conf
      ) throws IOException {
    // 通過讀取配置文件, 獲取FileSystem具體的URI模式: hdfs的類對象
    Class<?> clazz = getFileSystemClass(uri.getScheme(), conf); // clazz = org.apache.hadoop.hdfs.DistributedFileSystem
    ...
    // 反射出一個DistributedFileSystem實例
    FileSystem fs = (FileSystem)ReflectionUtils.newInstance(clazz, conf);
    // 對DistributedFileSystem實例初始化
    fs.initialize(uri, conf);
    return fs;
}

在調用DistributedFileSystem.initialize(URI uri, Configuration conf)方法之前, 先來看一下DistributedFileSystem類吧.

DistributedFileSystem是抽象類FileSystem的子類實現,

public class DistributedFileSystem extends FileSystem {
  ...
  DFSClient dfs;    // DistributedFileSystem持有一個DFSClient類型的成員變量dfs, 最重要的成員變量!
  ...
}

調用DistributedFileSystem.initialize(URI uri, Configuration conf)方法

public void initialize(URI uri, Configuration conf) throws IOException {
    ...
    // new一個DFSClient實例, 成員變量dfs引用這個DFSClient實例
    this.dfs = new DFSClient(uri, conf, statistics );
    /* 分割線2, 期待著new DFSClient()的返回 */
    ...
}

在new DFSClient實例之前, 先來看一下DFSClient類吧! 看一下到底要為哪些成員變量賦值

public class DFSClient implements java.io.Closeable, RemotePeerFactory {
  ...
  final ClientProtocol namenode;    //DFSClient持有一個ClientProtocol類型的成員變量namenode, 一個RPC代理對象
  /* The service used for delegation tokens */
  private Text dtService;
  ...
}

來自分割線2, 調用DFSClient的構造函數DFSClient(URI nameNodeUri, Configuration conf, FileSystem$Statistics statistics), 再調用重載構造函數DFSClient(URI nameNodeUri, ClientProtocol rpcNamenode, Configuration conf, FileSystem$Statistics statistics)

public DFSClient(URI nameNodeUri, ClientProtocol rpcNamenode, Configuration conf, 
    FileSystem.Statistics stats) throws IOException {
    ...
    NameNodeProxies.ProxyAndInfo<ClientProtocol> proxyInfo = null;
    if (numResponseToDrop > 0) {    // numResponseToDrop = 0
      // This case is used for testing.
      LOG.warn(DFSConfigKeys.DFS_CLIENT_TEST_DROP_NAMENODE_RESPONSE_NUM_KEY
          + " is set to " + numResponseToDrop
          + ", this hacked client will proactively drop responses");
      proxyInfo = NameNodeProxies.createProxyWithLossyRetryHandler(conf,
          nameNodeUri, ClientProtocol.class, numResponseToDrop);
    }
    
    if (proxyInfo != null) { // proxyInfo = null
      this.dtService = proxyInfo.getDelegationTokenService();
      this.namenode = proxyInfo.getProxy();
    } else if (rpcNamenode != null) { // rpcNamenode = null
      // This case is used for testing.
      Preconditions.checkArgument(nameNodeUri == null);
      this.namenode = rpcNamenode;
      dtService = null;
    } else {    // 前面兩個if只在測試的情況下成立, 這個else的代碼塊才是重點
      ...
      /*
       * 創建一個NameNodeProxies.ProxyAndInfo<ClientProtocol>類型的對象, proxyInfo引用這個對象 
       * createProxy(conf, nameNodeUri, ClientProtocol.class)方法是不是和RPC.getProxy(Class<T> protocol,
       * long clientVersion, InetSocketAddress addr, Configuration conf)很像?
       * 沒錯! 你沒看錯! 這說明createProxy()方法內部一定會調用RPC的相關方法
       * conf    都是Configuration類型的conf
       * nameNodeUri = hdfs://node1:9000    這不就是InetSocketAddress類型的addr的hostName和port
       * ClientProtocol.class    都是RPC protocol接口的類對象
       * ClientProtocol is used by user code via DistributedFileSystem class to communicate 
       * with the NameNode
       * ClientProtocol是DistributedFileSystem用來與NameNode通信的
       */
      proxyInfo = NameNodeProxies.createProxy(conf, nameNodeUri, ClientProtocol.class);
      /* 分割線3, 期待著createProxy()方法的返回 */
      this.dtService = proxyInfo.getDelegationTokenService();
      this.namenode = proxyInfo.getProxy();
    }
    ...
}

來自分割線3, 調用NameNodeProxies.createProxy(Configuration conf, URI nameNodeUri, Class<T> xface)方法

/**
   * Creates the namenode proxy with the passed protocol. This will handle
   * creation of either HA- or non-HA-enabled proxy objects, depending upon
   * if the provided URI is a configured logical URI.
   * 通過傳過來的protocol參數, 創建namenode的代理對象. 至于是HA還是非HA的namenode代理對象, 
   * 這取決于實際搭建的Hadoop環境
   **/
public static <T> ProxyAndInfo<T> createProxy(Configuration conf, URI nameNodeUri, Class<T> xface)
    throws IOException {
    // 獲取Hadoop實際環境中HA的配置
    Class<FailoverProxyProvider<T>> failoverProxyProviderClass =
        getFailoverProxyProviderClass(conf, nameNodeUri, xface);

    if (failoverProxyProviderClass == null) {    // 非HA,這里是Hadoop的偽分布式搭建
      // Non-HA case, 創建一個非HA的namenode代理對象
      return createNonHAProxy(conf, NameNode.getAddress(nameNodeUri), xface,
          UserGroupInformation.getCurrentUser(), true);
    } else {    // HA
      // HA case
      FailoverProxyProvider<T> failoverProxyProvider = NameNodeProxies
          .createFailoverProxyProvider(conf, failoverProxyProviderClass, xface,
              nameNodeUri);
      Conf config = new Conf(conf);
      T proxy = (T) RetryProxy.create(xface, failoverProxyProvider,
          RetryPolicies.failoverOnNetworkException(
              RetryPolicies.TRY_ONCE_THEN_FAIL, config.maxFailoverAttempts,
              config.maxRetryAttempts, config.failoverSleepBaseMillis,
              config.failoverSleepMaxMillis));
      
      Text dtService = HAUtil.buildTokenServiceForLogicalUri(nameNodeUri);
      // 返回一個proxy, dtService的封裝對象proxyInfo
      return new ProxyAndInfo<T>(proxy, dtService);
    }
}

調用NameNodeProxies.createNonHAProxy(Configuration conf, InetSocketAddress nnAddr, Class<T> xface, UserGroupInformation ugi, boolean withRetries)方法

public static <T> ProxyAndInfo<T> createNonHAProxy(Configuration conf, InetSocketAddress nnAddr,
    Class<T> xface, UserGroupInformation ugi, boolean withRetries) throws IOException {
    Text dtService = SecurityUtil.buildTokenService(nnAddr);    //dtService = 192.168.8.101:9000
    T proxy;
    if (xface == ClientProtocol.class) {    // xface = ClientProtocol.class
      // 創建一個namenode代理對象
      proxy = (T) createNNProxyWithClientProtocol(nnAddr, conf, ugi, withRetries);
      /* 分割線4, 期待著createNNProxyWithClientProtocol()方法返回 */
    } else if {
      ...
    }
    // 把proxy, dtService封裝成一個ProxyAndInfo對象, 并返回
    return new ProxyAndInfo<T>(proxy, dtService);
  }

以上是“HDFS中FileSystem是什么類”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

庆阳市| 六安市| 锦州市| 玛沁县| 漾濞| 昌邑市| 周宁县| 巍山| 建始县| 马边| 武陟县| 泌阳县| 新和县| 临夏市| 友谊县| 孝昌县| 酉阳| 灌阳县| 龙井市| 论坛| 华亭县| 泰兴市| 六枝特区| 格尔木市| 九龙城区| 九寨沟县| 汤原县| 福鼎市| 堆龙德庆县| 伊宁县| 达孜县| 张北县| 梨树县| 福建省| 邵阳县| 江城| 清水河县| 射阳县| 湖口县| 沁水县| 城市|