您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關Hadoop如何實現HelloWorld的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
目的:將輸入文件的中的Hello,World輸出到文件為World Hello.
輸入文件內容:
代碼實例:
import java.io.IOException; import java.text.SimpleDateFormat; import java.util.Date; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.input.TextInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; /** * HelloWorld Job * 將輸入文件中的Hello,World, 以World Hello輸出到文件 */ public class HelloWorld { /** * 映射器 * 用于將我們的數據進行預處理 */ private static class MyMapper extends Mapper<LongWritable, Text, Text, Text>{ @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { System.out.println("mapper running..."); System.out.println("key=" + key.get()); System.out.println("value=" + value.toString()); String[] strValue = value.toString().split(","); context.write(new Text(strValue[1]), new Text(strValue[0])); } } /** * 處理器 * 用于將mapper預處理的數據記錄進行業務計算,然后輸出 */ private static class MyReducer extends Reducer<Text, Text, Text, Text>{ @Override protected void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException { System.out.println("reducer running..."); System.out.println("key=" + key.toString()); String val = values.iterator().next().toString(); System.out.println("value=" + val); context.write(key, new Text(val)); } } public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { Configuration configuration = new Configuration(); Job job = new Job(configuration, "helloworld_job"); job.setJarByClass(HelloWorld.class); job.setMapperClass(MyMapper.class); job.setReducerClass(MyReducer.class); job.setInputFormatClass(TextInputFormat.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(Text.class); FileInputFormat.addInputPath(job, new Path("hdfs://hadoopmaster:9000/in/helloworld.txt")); String outFileExt = "_" + new SimpleDateFormat("yyyyMMddHHmmss").format(new Date()); FileOutputFormat.setOutputPath(job, new Path("hdfs://hadoopmaster:9000/out/helloworld"+outFileExt)); System.out.println(job.waitForCompletion(true)); } }
將代碼打包, 拷貝到hadoopmaster上:
執行jar包:
hadoop jar helloworld.jar
得到輸出文件:
感謝各位的閱讀!關于“Hadoop如何實現HelloWorld”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。