第一次:环形缓冲区溢写到磁盘
第二次:环形缓冲区溢写出来的小文件进行合并后再次写入到磁盘
第三次:reducetask拉取到每个maptask最后生成文件中属于自己部分的数据后再进行合并,然后再写入磁盘
第四次:数据经过自己reduce任务处理后把最后结果写入磁盘
MapReduce的执行步骤:
1、Map任务处理
1 读取HDFS中的文件。每一行解析成一个<k,v>。每一个键值对调用一次map函数。 <0,hello you> <10,hello me>
2 覆盖map(),接收1产生的<k,v>,进行处理,转换为新的<k,v>输出。 <hello,1> <you,1> <hello,1> <me,1>
3 对2中输出的<k,v>进行分区。默认分为一个区。
4 对不同分区中的数据进行排序(按照k)、分组。分组指的是相同key的value放到一个集合中。 排序后:<hello,1> <hello,1> <me,1> <you,1> 分组后:<hello,{1,1}><me,{1}><you,{1}>
5 (可选)对分组后的数据进行归约。
2、Reduce任务处理
6 多个map任务的输出,按照不同的分区,通过网络copy到不同的reduce节点上。(shuffle)
7 对多个map的输出进行合并、排序。覆盖reduce函数,接收的是分组后的数据,实现自己的业务逻辑, <hello,2> <me,1> <you,1>
处理后,产生新的<k,v>输出。
8 对reduce输出的<k,v>写到HDFS中。