中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop中WordCount如何實現

發布時間:2021-12-09 15:11:59 來源:億速云 閱讀:137 作者:小新 欄目:云計算

小編給大家分享一下Hadoop中WordCount如何實現,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

WordCount 是 Hadoop 應用最經典的例子。

使用 hadoop-2.6.0 版本,需要引入的包目錄位于 hadoop-2.6.0/share/hadoop/common/lib

源碼

import java.io.IOException;  
import java.util.StringTokenizer;  

import org.apache.hadoop.conf.Configuration;  
import org.apache.hadoop.fs.Path;  
import org.apache.hadoop.io.IntWritable;  
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;  
import org.apache.hadoop.mapreduce.Mapper;  
import org.apache.hadoop.mapreduce.Reducer;  
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;   

import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;


public class WordCount {
	
	public static class WordCountMap extends Mapper <Object, Text, Text, IntWritable> {
		private final static IntWritable one = new IntWritable(1);
		private Text word = new Text();
	
		public void map(Object key, Text value, Context context)
				throws IOException, InterruptedException {
			String line = value.toString();
			StringTokenizer tokenizer = new StringTokenizer(line);
		
			while (tokenizer.hasMoreTokens()){
				word.set(tokenizer.nextToken());
				context.write(word, one);
			}
		}
		}
	
	public static class WordCountReduce extends Reducer <Text, IntWritable, Text, IntWritable> {
		
		public void reduce(Text key, Iterable<IntWritable> values, Context context)
				throws IOException, InterruptedException {
			int sum = 0;
			for (IntWritable val : values) {
				sum += val.get();
			}
			context.write(key, new IntWritable(sum));
	    }
	}
	
	public static void main(String[] args) throws Exception {
		Configuration conf = new Configuration();  
		Job job = new Job(conf);  
		job.setJarByClass(WordCount.class);  
		job.setJobName("wordcount");  

		job.setOutputKeyClass(Text.class);  
		job.setOutputValueClass(IntWritable.class);  

		job.setMapperClass(WordCountMap.class);  
		job.setReducerClass(WordCountReduce.class);  

		job.setInputFormatClass(TextInputFormat.class);  
		job.setOutputFormatClass(TextOutputFormat.class);  

		FileInputFormat.addInputPath(job, new Path(args[0]));  
		FileOutputFormat.setOutputPath(job, new Path(args[1]));  

		job.waitForCompletion(true);  
		
	}
}

Mapper 的輸入類型為文本,鍵用 Object 代替,值為文本 (Text)。

Mapper 的輸出類型為文本,鍵為 Text,值為 IntWritable,相當于java中Integer整型變量。將分割后的字符串形成鍵值對 <單詞,1>。

對于每一行輸入文本,都會調用一次 map 方法,對輸入的行進行切分。

while (tokenizer.hasMoreTokens()){
    word.set(tokenizer.nextToken());
    context.write(word, one);
}

將一行文本變為<單詞,出現次數>這樣的鍵值對。

對于每個鍵,都會調用一次 reduce 方法,對鍵出現次數進行求和。

運行測試

用 eclipse 導出 WordCount 的 Runable jar 包,放到目錄 hadoop-2.6.0/bin

在目錄 hadoop-2.6.0/bin 下新建 input 文件夾,并新建文件 file1, file2。

file1 內容為 one titus two titus three titus

file2 內容為 one huangyi two huangyi

.
├── container-executor
├── hadoop
├── hadoop.cmd
├── hdfs
├── hdfs.cmd
├── input
│   ├── file1.txt
│   └── file2.txt
├── mapred
├── mapred.cmd
├── rcc
├── test-container-executor
├── wordcount.jar
├── yarn
└── yarn.cmd

運行 ./hadoop jar wordcount.jar input output

會生成 output 目錄和結果。

huangyi	2
one	2
three	1
titus	3
two	2

以上是“Hadoop中WordCount如何實現”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

道真| 朝阳市| 奈曼旗| 池州市| 同仁县| 临夏市| 陇南市| 三台县| 上杭县| 彰化市| 嘉鱼县| 宁城县| 诸城市| 固原市| 鄂伦春自治旗| 丹凤县| 陈巴尔虎旗| 永和县| 三门县| 昭通市| 同心县| 承德县| 新巴尔虎右旗| 昌江| 东光县| 富蕴县| 定结县| 台中市| 华坪县| 荥经县| 凤凰县| 舒城县| 道真| 隆子县| 黎川县| 门头沟区| 区。| 来安县| 惠水县| 霍林郭勒市| 渭南市|