码迷,mamicode.com
首页 > 其他好文 > 详细

Hadoop中Combiner的使用

时间:2015-06-23 19:50:21      阅读:105      评论:0      收藏:0      [点我收藏+]

标签:

 文章转载于:http://blog.csdn.net/ipolaris/article/details/8723782

Hadoop中Combiner的使用

在MapReduce中,当map生成的数据过大时,带宽就成了瓶颈,怎样精简压缩传给Reduce的数据,有不影响最终的结果呢。有一种方法就是使用Combiner,Combiner号称本地的Reduce,Reduce最终的输入,是Combiner的输出。下面以《Hadoop in action》中的专利数据为例。我们打算统计每个国家的专利数目。代码如下(使用Combiner的代码注释掉):

  1. package net.csdn.blog.ipolaris.hadoopdemo;  
  2.   
  3. import java.io.IOException;  
  4.   
  5. import net.scdn.blog.ipolaris.util.ArgsTool;  
  6.   
  7. import org.apache.hadoop.conf.Configuration;  
  8. import org.apache.hadoop.conf.Configured;  
  9. import org.apache.hadoop.fs.Path;  
  10. import org.apache.hadoop.io.IntWritable;  
  11. import org.apache.hadoop.io.LongWritable;  
  12. import org.apache.hadoop.io.Text;  
  13. import org.apache.hadoop.mapreduce.Job;  
  14. import org.apache.hadoop.mapreduce.Mapper;  
  15. import org.apache.hadoop.mapreduce.Reducer;  
  16. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  
  17. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
  18. import org.apache.hadoop.util.Tool;  
  19. import org.apache.hadoop.util.ToolRunner;  
  20.   
  21. public class Demo1 extends Configured implements Tool{  
  22.   
  23.     /** 
  24.      * @param args 
  25.      * @throws Exception  
  26.      */  
  27.     public static void main(String[] args) throws Exception {  
  28.         System.exit(ToolRunner.run(new Demo1(), args));  
  29.   
  30.     }  
  31.   
  32.     public static class DemoMap extends Mapper<LongWritable, Text, Text, IntWritable>{  
  33.   
  34.         @Override  
  35.         protected void map(LongWritable key, Text value, Context context)  
  36.                 throws IOException, InterruptedException {  
  37.               
  38.             String line = value.toString();  
  39.             String[] splitdata = line.split("\\,");  
  40.             String contry = splitdata[4];  
  41.             System.out.println("country:"+contry);  
  42.             if (contry.trim().equals("\"COUNTRY\"")) {  
  43.                 return;  
  44.             }else{  
  45.                 context.write(new Text(contry), new IntWritable(1));  
  46.             }  
  47.         }  
  48.           
  49.     }  
  50.       
  51.     public static class DemoReduce extends Reducer<Text, IntWritable, Text, IntWritable>{  
  52.   
  53.         @Override  
  54.         protected void reduce(Text arg0, Iterable<IntWritable> arg1,Context context)  
  55.                 throws IOException, InterruptedException {  
  56.             System.out.println("reduce");  
  57.             int sum = 0;  
  58.             for (IntWritable num : arg1) {  
  59.                 sum += num.get();  
  60.             }  
  61.             context.write(arg0, new IntWritable(sum));  
  62.         }  
  63.           
  64.     }  
  65.     @Override  
  66.     public int run(String[] arg0) throws Exception {  
  67.         Configuration conf = getConf();  
  68.           
  69.           
  70.         Job job = new Job(conf, "demo1");  
  71.         String inputPath = ArgsTool.getArg(arg0, "input");  
  72.         String outputPath = ArgsTool.getArg(arg0, "output");  
  73.           
  74.         FileInputFormat.addInputPath(job, new Path(inputPath));  
  75.         FileOutputFormat.setOutputPath(job, new Path(outputPath));  
  76.           
  77.         job.setJarByClass(Demo1.class);  
  78.         job.setMapperClass(DemoMap.class);  
  79.         job.setReducerClass(DemoReduce.class);  
  80.         //job.setCombinerClass(DemoReduce.class);  
  81.         job.setOutputKeyClass(Text.class);  
  82.         job.setOutputValueClass(IntWritable.class);  
  83.         return job.waitForCompletion(true)?0:1;  
  84.     }  
  85.   
  86. }  

可以看出,reduce的输入每个key所对应的value将是一大串1,但处理的文本很多时,这一串1已将占用很大的带宽,如果我们在map的输出给于reduce之前做一下合并或计算,那么传给reduce的数据就会少很多,减轻了网络压力。此时Combiner就排上用场了。我们现在本地把Map的输出做一个合并计算,把具有相同key的1做一个计算,然后再把此输出作为reduce的输入,这样传给reduce的数据就少了很多。Combiner是用reducer来定义的,多数的情况下Combiner和reduce处理的是同一种逻辑,所以job.setCombinerClass()的参数可以直接使用定义的reduce,当然也可以单独去定义一个有别于reduce的Combiner,继承Reducer,写法基本上定义reduce一样。让我们看一下,加入Combiner之前的处理结果

技术分享

 

我们看到Reduce input records的值为2923922(在map中删掉了一条数据),而Map input records值为2923923,也就是说每个map input record,对应了一个reduce input record。代表着我们要通过网络传输大量的值。最终的统计结果如下(只截取了一段)

技术分享

 

我们在看看加上Combiner运行情况

技术分享

Reduce input records只有565,大量的map输出已经在Combiner中进行了合并,最终的统计结果和上图相同,就不贴图了。


Hadoop中Combiner的使用

标签:

原文地址:http://www.cnblogs.com/nicoleyaya/p/4595871.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!