中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop WordCount案例分析

發布時間:2021-12-10 10:03:52 來源:億速云 閱讀:131 作者:iii 欄目:云計算

這篇文章主要講解了“hadoop WordCount案例分析”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“hadoop WordCount案例分析”吧!

public class WordCount {
  public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable>{
  
    private final static IntWritable one = new IntWritable(1);
   
    private Text word = new Text();
    //TextInput默認設置是讀取一行數據,map階段是按照我們的需求將讀取到的每一行進行分割。
    public void map(Object key, Text value, Context context) throws IOException, InterruptedException {
     StringTokenizer line = new StringTokenizer(value.toString());
     while(line.hasMoreTokens()){
      word.set(line.nextToken());
      context.write(word, one);
     }
    }
  }
  //在reduce階段,是map階段分割后的經過排序后的數據向reduce任務中copy的過程,在此過程中會有一個背景線程將相同的key值進行合并,并將其value值歸并到一個類似集合的容器中,此時的邏輯就是我們要遍歷這個容器中的數據,計算它的值,然后輸出。
  public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> {
  
    private IntWritable result = new IntWritable();

    public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
      int sum = 0;
      for (IntWritable val : values) {
       sum+=val.get();
 }
      result.set(sum);
      context.write(key, result);
    }
  }

  public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    if (otherArgs.length != 2) {
      System.err.println("Usage: wordcount <in> <out>");
      System.exit(2);
    }
    Job job = new Job(conf, "word count");
    job.setJarByClass(WordCount.class);
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(IntSumReducer.class);
    job.setReducerClass(IntSumReducer.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
    FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);
  }
}

感謝各位的閱讀,以上就是“hadoop WordCount案例分析”的內容了,經過本文的學習后,相信大家對hadoop WordCount案例分析這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

镇原县| 屏东市| 宜城市| 县级市| 阳谷县| 伊宁市| 连江县| 双峰县| 博湖县| 东乡族自治县| 石景山区| 台江县| 北辰区| 常宁市| 体育| 衡水市| 清徐县| 泾阳县| 长沙市| 临澧县| 阜城县| 灵山县| 乾安县| 绵阳市| 江都市| 南丰县| 大竹县| 鲜城| 建宁县| 隆安县| 霍城县| 大洼县| 昌乐县| 景泰县| 阳城县| 长泰县| 汤阴县| 东安县| 高邮市| 肇源县| 宣化县|