中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么從Hadoop URL讀取數據

發布時間:2021-08-12 09:45:29 來源:億速云 閱讀:114 作者:chen 欄目:云計算

本篇內容主要講解“怎么從Hadoop URL讀取數據”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“怎么從Hadoop URL讀取數據”吧!

1,編寫代碼

import java.io.*;
import java.net.URL;

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;

public class URLCat {
    static {
        URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
    }
    
    public static void main(String[] args) throws Exception {
        InputStream in = null;
        try {
            in = new URL(args[0]).openStream();
            IOUtils.copyBytes(in, System.out, 4096, false);
        } finally {
            IOUtils.closeStream(in);
        }
    }
}
 


2,編譯Java代碼

  1. $ Hadoopcom.sun.tools.javac.Mian -d classes URLCat.java  

  2. // then the class files will be generated in the directory of classes  

3,打包成jar包

  1. jar cf URLCat.jar classes/URLCat.class   

  2. // then we will get the URLCat.jar, the source is from classes/URLCat.class  


4,運行jar包

hadoop jar URLCat.jar URLCat hdfs://10.10.12.171/input/WordCount/file1  

Result:

  1. hadoop  ok  

  2. hadoop  fail  

  3. hadoop  2.3  

可見hdfs://10.10.12.171/input/WordCount/file1的內容就輸出到了標準輸出了。

到此,相信大家對“怎么從Hadoop URL讀取數據”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

永靖县| 灌南县| 铁岭县| 通辽市| 凤台县| 河池市| 绥阳县| 遵义市| 乐业县| 长汀县| 晋中市| 武邑县| 耒阳市| 二连浩特市| 金沙县| 平和县| 怀集县| 石嘴山市| 石河子市| 砚山县| 土默特右旗| 怀化市| 阿瓦提县| 无锡市| 讷河市| 漯河市| 新乡县| 武穴市| 申扎县| 青龙| 林周县| 阳朔县| 霍林郭勒市| 隆子县| 廉江市| 抚顺县| 商南县| 津市市| 镇宁| 阳城县| 句容市|