Hadoop2.0之YARN组件

  官方文档:https://hadoop.apache.org/docs/stable/,目前官方已经是3.x,但yarn机制没有太大变化

一、简介

  在Hadoop1.0中,没有yarn,所有的任务调度和资源管理都是MapReduce自己来做,所以在Hadoop1.0中,最核心的节点是JobTracker。在整个MapReduce集群中,JobTracker的性能基本决定了整个集群的性能。经过试验,发现在Hadoop1.0中,JobTracker所能管理的节点数量最多不要超过4000,一旦超过4000个节点,则整个集群的性能会成倍下降。

  在Hadoop2.0中,为了解决性能下降的问题,引入了yarn来进行管理,从Hadoop2.0开始,MapReduce变成了一个纯粹的计算框架,不再负责管理

  

  Yarn组件包括:

    1)ResourceManager-资源管理:负责资源的监控和分配

      ①ApplicationsManager:负责为任务分配资源

      ②Schedular:负责将任务以及资源发给ApplicationMaster

    2)ApplicationMaster:负责任务调度和监控,并不是一个主进程,在启动Yarn的时候,不会单独占用一个节点

    3)NodeManager:任务执行:功能和原来的TaskTracker一致

 二、MR V1.0与V2.0比较

1、v1.0 MR图解说明

  

 2、v2.0 MR图解说明

三、Yarn体系架构图

执行流程:

  ① JobClient执行run job阶段,检测各种job运行环境参数

  ② 向ResourceManager申请job id

  ③ 将Job的运算资源,上传到HDFS

  ④ submit job

  ⑤

    a:start container,启动容器,这一步的容器的资源封装,限定的是AppMaster进程

    b:根据容器的资源描述情况,启动AppMaster进程(用于负责对应Job的任务分配和监控)

  ⑥~⑦:初始化job,统计出当前job的MapTask数量和ReduceTask数量

  ⑧:AppMaster向RM申请资源,RM收到请求后,会为对应的Job创建一个资源队列

  ⑨

    a:在具体的NM上启动容器

    b:根据容器启动对应的工作进程

  ⑩ 获取job的运算资源

  ⑪ 在进程中运行MapTask或ReduceTask

四、Yarn执行流程

  

①将Job任务提交到RM

②在RM中,子组件ResourceManager会为提交的job任务分配执行所需要的资源,资源主要包含这个任务执行所需要的内存、cpu核数,将分配的资源封装到一个Container对象中。如果不指定,则默认每一个任务分配1G内存及1核CPU

③ApplicationsManager将Container及Job任务交给Schedular,然后Schedular负责将Container和Job交给ApplicationMaster

④ApplicationMaster接收到任务后,将Job拆分成多个MapTask以及ReduceTask,将MapTask以及Reduce Task分发到NodeManager上执行。

⑤NodeManager会启动JVM子进程执行对应的任务,会为每一个MapTask或ReduceTask都启动一个JVM子进程

⑥NodeManager会向ApplicationMaster汇报任务的执行情况,并且向ApplicationsManager汇报资源使用情况

⑦如果执行成功,则NodeManager向ApplicationMaster返回任务成功的信号,并且向ApplicationsManager发送信号回收资源

⑧如果执行失败,则NodeManager向ApplicationMaster返回任务失败的信号,并且依然会向ApplicationManager发送信号回收资源;ApplicationMaster收到失败信号,会重新给这个任务来申请资源,然后试图重新分配这个任务

猜你喜欢

转载自www.cnblogs.com/rmxd/p/12273247.html