《LINUX学习:MapReduce运行流程分析》要点:
本文介绍了LINUX学习:MapReduce运行流程分析,希望对您有用。如果有疑问,可以联系我们。

研究MapReduce已经有一段时间了.起初是从分析WordCount程序开始,后来开始阅读Hadoop源码,自认为已经看清MapReduce的运行流程.现在把本身的理解贴出来,与大家分享,欢迎纠错.

还是以最经典的WordCount程序作为基础,来阐发map阶段、reduce阶段和最复杂的shuffle阶段.

文本1:hello world 文本2:map reduce

hello hadoop java interface

abc qaz java hdfs

     java jvm spark storm

这样的2个小文本文件(不敷64M),肯定会产生2个map任务,reduce任务默认是1个.当然,map任务和reduce任务的个数都可以在程序中或者配置文件中人为设置.为了说明partition的过程,我们把reduce任务的个数设为2.

1、map阶段

map1 map2

输入:<xxxx,hello world> <xxxx,map reduce>

<xxxx,hello hadoop> <xxxx,java interface>

    <xxxx,abc qaz> <xxxx,java hdfs>

    <xxxx,java jvm> <xxxx,spark storm>

切分:<hello,1> <map,1>

<word,1> <reduce,1>

   <hello,1> <java,1>

   <hadoop,1> <interface,1>

   <abc,1> <java,1>

   <qaz,1> <hdfs,1>

   <java,1> <spark,1>

   <jvm,1> <storm,1>

2、shuffle阶段

切分完毕后,每一组<key,value>都会赓续地被collect到一个内存缓冲区中,对应代码中的数据结构MapOutputBuffer.

partition过程:每一组<key,value>在被收集的时候,就已经确定了分区(partition),即在这个时候就已经确定了要交给哪个reduce任务处置.分区会给<key,value>加上一个索引标识.假设分区后(分区算法可以设定,默认是hash值模运算),数据如下:reduce1的标识是0,reduce2的标识是1

<hello,1> 0 <map,1> 0

<word,1> 1 <reduce,1> 1

    <hello,1> 0 <java,1> 0

    <hadoop,1> 1 <interface,1> 1

    <abc,1> 0 <java,1> 0

    <qaz,1> 1 <hdfs,1> 1

    <java,1> 0 <spark,1> 0

    <jvm,1> 1 <storm,1> 1

spill过程:缓冲区默认是100M,每当里面的数据达到80M(比例80%,这个比例也可以人为设置),就会另起一个线程SpillThread往磁盘溢写,每次溢写都会发生一个数据文件和对应的索引文件.

sort过程:在溢写的过程中一直在排序,比拟算法可以定制,默认排序算法是快速排序(可以人为设定),排序的过程就是一些位置的索引在不断的变化.

排序之后的数据:

<abc,1> 0 <hdfs,1> 1

<hello,1> 0 <interface,1> 1

<hello,1> 0

<hadoop,1> 1 <java,1> 0

    <java,1> 0 <map,1> 0

    <jvm,1> 1 <reduce,1> 1

    <qaz,1> 1 <spark,1> 0

    <word,1> 1 <storm,1> 1  

combine过程:这个过程默认是没有的,需要明确指定combiner.combiner其实就是一个reducer,可以让数据交给reduce任务之前,进行一些计算、合并.它的意义在于,使数据进一步减少,减轻了 reduce任务通过网络获取数据的压力和reduce处理数据的压力.combiner也可以本身定制,每个溢写文件都会combine.

combiner会通过一个比拟器对key进行比拟,相同的key(比拟结果为0,比拟算法可以定制),会被放到一个集合的迭代器中,然后迭代进行一次reduce运算,产生一个输出.

combine之后的数据:

<abc,1> 0 <hdfs,1> 1

<hello,1+1> 0 <interface,1> 1

<hadoop,1+1> 0

    <java,1> 1

merge过程:一个map所有的溢写文件都会进行合并,产生一个最终的溢写文件和一个索引文件.合并是针对于分歧的溢写文件中相同分区的数据.在这个合并的过程中,也会进行combine操作(如果设置了的话),此处的combine过程同上,不再细说.

copy数据过程:每个reduce任务会远程copy属于自己的多个map输出数据文件,通过http传输,在当地会合并.另外,这个过程也会进行combine,此次不过多说明.

成果如下:

reduce0 reduce1

<abc,1> <hadoop,1>

                      <hello,2> <jvm,1>

<java,1> <qaz,1>

                      <java,2> <word,1>

<map,1> <hdfs,1>

<spark,1> <interface,1>

<reduce,1>

<storm,1>

sort过程:对上述成果进行排序,成果如下:

reduce0 reduce1

<abc,1>

                       <hello,2> <hdfs,1>

<java,1> <interface,1>

                        <java,2> <jvm,1>

<map,1> <qaz,1> <reduce,1>

<storm,1>

<word,1>

3、reduce阶段

通过一个GroupComparator对key进行比拟,产生一个输出.类似combine过程.

最终的输出: reduce0 reduce1

<abc,3> <interface,1>

                        <map,1> <jvm,1> <qaz,1>

<reduce,1>

从上述过程的阐发可以看出,合并和排序是核心!!!

PS:其实每个阶段没有这么分明,只不过是为了分析和理解的需要,才进行这样详细的划分,而且划分的还不必定正确,请大家及时纠错.另外,上述流程中涉及到好多的细节,没有一一说明.

本文永远更新链接地址:

欢迎参与《LINUX学习:MapReduce运行流程分析》讨论,分享您的想法,脚本之家PHP学院为您提供专业教程。

dawei

【声明】:淮南站长网内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。