源代码作用默认的partition分区
public class HashPartitioner<K, V> extends Partitioner<K, V> {
  /** Use {@link Object#hashCode()} to partition. */
  public int getPartition(K key, V value, int numReduceTasks) {
    return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;
  }
}默认分区是根据key的hashCode对reduceTasks个数取模得到的,用户没发控制哪个key存储到哪个分区
自定义Patitioner步骤
(1)自定义类继承Partitioner,重新getPartitioner()方法
package com.zyd.flowsum;
  import org.apache.hadoop.io.Text;
  import org.apache.hadoop.mapreduce.Partitioner;
  /**
   * K2 V2 对应是map输出的K,V类型
   * @author Administrator
   *
   */
  public class ProvincePartitioner extends Partitioner<Text, FlowBean>{
    @Override
    public int getPartition(Text key, FlowBean value, int numPartitions) {
      //1 获取电话号码的前三位
      String preNum = key.toString().substring(0,3);
      int partition =4 ;
      // 2 判断是哪个省的
      if ("136".equals(preNum)) {
        partition = 0;
      }else if("137".equals(preNum)){
        partition = 1;
      }else if("138".equals(preNum)){
        partition = 2;
      }else if("139".equals(preNum)){
        partition = 3;
      }
      return partition;
    }
  }(2)在job驱动中,设置自定义的Partitioner
(3)自定义partition后,要根据自定义partitioner的逻辑设置相应数量的reduce Task
//2 设置jar包路径
    job.setJarByClass(FlowDriver.class);
    // 指定自定义数据分区
    job.setPartitionerClass(ProvincePartitioner.class);
    //指定响应数量的reduceTask 注意task的数目等于分区数 分区数 0 到设置的数
    job.setNumReduceTasks(5);
    //3 管理类mapper和Reducer
    job.setMapperClass(FlowMapper.class);
    job.setReducerClass(FlowReducer.class);注意:
如果reduceTask的数量> getPartition的结果数,则会多产生几个空的输出文件part-r-000xx;
如果1<reduceTask的数量<getPartition的结果数,则有一部分分区数据无处安放,会Exception;
如果reduceTask的数量=1,则不管mapTask端输出多少个分区文件,最终结果都交给这一个reduceTask,最终也就只会产生一个结果文件 part-r-00000;
假定自定义分区数为5,则
(1)job.setNumReduceTasks(1);会正常运行,只不过会产生一个输出文件
(2)job.setNumReduceTasks(2);会报错
(3)job.setNumReduceTasks(6);大于5,程序会正常运行,会产生空文件所有设置分区数=mapTask数









