MapReduce计算框架指的是什么-成都快上网建站

MapReduce计算框架指的是什么

这期内容当中小编将会给大家带来有关MapReduce计算框架指的是什么,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

在麻城等地区,都构建了全面的区域性战略布局,加强发展的系统性、市场前瞻性、产品创新能力,以专注、极致的服务理念,为客户提供做网站、成都做网站 网站设计制作定制开发,公司网站建设,企业网站建设,品牌网站建设,营销型网站,外贸营销网站建设,麻城网站建设费用合理。

1 MapReduce 是什么

先生说:"MapReduce是hadoop的一个计算框架,说直白点就是hdfs负责存储,那么像其他统计、计算之类的事情就会交给MapReduce来做,分为map过程和reduce过程。

Map 过程是拆解,比如说有辆红色的小汽车,有一群工人,把它拆成零件了,这就是Map"

MapReduce计算框架指的是什么  

Reduce 过程是组合,我们有很多汽车零件,还有很多其他各种装置零件,把他们一阵拼装,变成变形金刚,这就是Reduce。

MapReduce计算框架指的是什么  

小白听了:"这么听起来,感觉挺形象的,那么具体的map过程和reduce过程是如何。"

"且听我慢慢给你讲解",喵先生咽了咽口水。

 

2 MapReduce 的原理

先生说:"首先我们来看下面的数据————学生的信息记录表"

MapReduce计算框架指的是什么  

1、我们可以过滤出性别为1的数据;

2、可以将性别字段中1转换成男且0转换成女;

3、也可以将字段地址展开;

以上的过程就是map:以一条记录为单位做映射(过滤/转换/展开)

小白说:"我感觉map的原理跟MySQL的语法好像啊,select * from student where sex=1,都是对数据进行1条1条的处理."

先生:"嗯,孺子可教,我们来继续看看reduce过程:我们想统计出学习各专业共有多少名同学时,需要将python、java、c进行分组,以这样的一组为单位进行统计计算。"

MapReduce计算框架指的是什么  

以上的过程就是reduce:以组为单位进行计算

小白说:"这不就是mysql 里面 group by的原理嘛,以组为单位进行统计"

先生补充到:"思想跟mysql的group by思想类似的"

MapReduce计算框架指的是什么  

最后喵先生继续总结到:" 输入数据按照以一条数据为单位进行映射(map方法),然后输出kv键值对,以组为单位作为reduce的输入进行计算,最终输出结果。"

好学的小白继续问到:"嗯,我了解了mapreduce的大致过程,它如何从hdfs上取数据的呢,中间又是如何交互的呢"

先生:“不错哦小白,看来你还挺上进的,那咱们来看看mapreduce交互图,mapreduce分为4步”

MapReduce计算框架指的是什么  

分为4步:

  1. map任务通过split在hdfs上取数据,一个split对应一个map方法并输出key,value,partition格式数据
  2. map任务将取出的数据放到内存中,并进行分区、分组排序。
  3. reduce任务此时知道了 key所在的partition,到相应的文件分区(dfs)上拉取数据,并进行计算最终输出数据。

"为啥map不直接从hdfs上获取数据,中间非得用split获取呢?"小白挠挠头望着喵先生,

先生点点头对小白说:"这个问题非常赞,split默认大小等于hdfs上的一个block块大约是64M,但可以通过调整split的大小来应对不同的计算类型,

当我们运行CPU-bound(计算密集型),可以将split设置小一点,多个split对应1个block块,这样可以提高计算速度

MapReduce计算框架指的是什么  

当我们运行IO-bound(IO密集型),可以将split设置大一点,1个split对应N个block块,这样可以提高IO读写效率

MapReduce计算框架指的是什么  

CPU-bound(计算密集型):

假设有一道数学题,题干只有一行字,
读题花费1秒,解题需要1个月才能解出来,
这样就是CPU-bound。(CPU利用率几乎100%)。
 

IO bound(IO密集型):

假设有一道数学题,题干有史记那么厚,
读完花费2个月,问题只是让你回答1+1=?,
这样就是I/O-bound。(CPU IDLE状态)。
 

小白总结到:“split原来可以控制map的并行度,决定了到底启用多少个map任务,一个split对一个map方法,输出k,v,p键值对”

“这里为什么要将输出的kv键值对放到内存里呢,虽然内存速度是硬盘的10万倍,但最终数据不也会写到磁盘上吗,这不等于脱了裤子放屁吗?”小白着急的问题,

“嗯,词粗理不粗,这里放map输出的kv键值对放100M的内存中,还做了一件重要的事情————那就是对k,v,p数据进行排序,将分区p下的数据放到一起,并且同一个分区下的k进行了排序,方便后面的reduce是做 归并排序。”先生解释道。

“你慢点呢,我都听得懵了,举个例子呢”

“那就看看下面的例子吧,统计java\python\mysql出现的次数”先生迅速的画了一张图

MapReduce计算框架指的是什么  

imput阶段:hdfs的block块上存有java、python、mysql的存储文件位置

split阶段:使用split对hdfs上的文件进行切块,其中文件分区0、2、3、15、16、17、205上存有java\python\mysql的信息,

map阶段:将每个分区上的含有java\python\mysql信息的数据进行kvp键值对输出,例:java,1,0 代表0号分区下存有java信息1次

shuffle阶段:在内存中对同一组数据进行排序,例:java出现在0、3、15、205分区上,

reduce阶段:最终reduce任务根据shffle阶段输出的排序,到指定的的文件分区上获取到对应的文件。

“真神奇,看来内存中的排序还真重要,有效减少了文件读取的次数,一次读取多次取数,对应的处理速度也加快了”小白恍然大悟到。

"还有个问题,我看上面的例子中key的数量是3个(java\python\mysql)对应的reduce的任务数也是3个,是不是key的数量就等于reduce的数量?"小白问道,

“观察的挺仔细的呀,reduce的数量是由程序员代码里面控制的,但key的数量也不完全等于reduce的数量,你想想万一key有10万个呢?那么reduce数量需要10万个吗?肯定没那么多资源,所以一般是根据具体服务器资源中reduce执行器的数量决定的。”先生补充到。

"另外还需要注意的是,如果key的数据量分布不均匀的话,可能会出现数据倾斜的问题,假如2个key————1个男,1个女,男数据量有10T,女的数据就只有1G,这样的话进行,系统遵循reduce处理同一个key时会将同一个key被分到同一个reduce执行器下,那么这样的话一个reduce执行器就会处理10T的数据,另一个reduce执行器处理1G数据,这就照成了数据倾斜。"先生继续补充到。

上述就是小编为大家分享的MapReduce计算框架指的是什么了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注创新互联行业资讯频道。


本文题目:MapReduce计算框架指的是什么
链接URL:http://kswjz.com/article/gigdhi.html
扫二维码与项目经理沟通

我们在微信上24小时期待你的声音

解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流