一种新的Hadoop资源管理器,一个通用资源管理系统
提供统一的资源管理与任务调度及监控,提高了集群管理效率,资源使用率和数据共享效率
MRv1存在的主要问题
jobTracker单点故障,如果他挂掉 整个系统无法运转
jobTracker负载过重 限制了集群扩展 随着节点规模的增大 成为集群的瓶颈
仅支持MR计算框架 适合批处理 基于磁盘的计算
资源与计算没有很好的解耦设计 一个集群只能使用一个计算框架 ,造成管理复杂,资源利用率低的难题
Yarn的特点
资源管理与计算框架解耦设计,一个集群资源共享给上层各个计算框架 按需分配,大大提高资源利用率
运维成本显著下降,只需运维一个集群 同时运行满足多种业务需求的计算框架
集群内数据共享一致 数据不再需要集群间拷贝转移,达到共享互用
避免单点故障 集群资源扩展得到合理解决
Yarn
YARN总体上仍然是Master/Slave结构,在整个资源管理框架中,ResourceManager为Master,NodeManager为Slave。YARN主要由ResourceManager、NodeManager、ApplicationMaster和Container等几个组件构成。
2.1概略介绍
- Master/Slave结构,1个ResourceManager和多个NodeManager
- Yarn由Client、ResourceManager、NodeManager、ApplicationMaster组成
- Client向ResourceManager提交启动任务、杀死任务等命令请求
- ApplicationMaster由对应的计算框架编写的应用程序完成。每个应用程序对应一个ApplicationMaster,ApplicationMaster向ResourceManager申请资源用于在NodeManager上启动相应的Task
- NodeManager向ResourceManager通过心跳信息汇报NodeManager监控状况、任务执行状况、领取任务等
2.2详细介绍
- Client:面向用户提交的Driver代码,作为用户编程的接口,与ResourceManager交互。
- ResourceManager:整个集群只有一个是存活(active)的,负责集群资源的统一管理和调度
- 负责整个集群的资源分配和调度
- 处理来自客户端的请求,启动、杀死应用程序
- 启动、监控ApplicationMaster,一旦一个AM挂了之后,RM将会在另一个NodeManager上启动该AM
- 监控NodeManager,接收NM的心跳汇报信息,获取NM的资源使用情况和Container运行状态
- NodeManager:整个集群中有多个,负责单节点资源管理和使用。
- 负责单个节点上的资源管理和任务调度
- 处理来自ApplicationMaster的命令
- 接收并处理来自ResourceManager的Container启动、停止的各种命令,主要是对ApplicationMaster相关的操作。
- 周期性向ResourceManager汇报本节点上的资源使用情况和Container的运行状态
- ApplicationMaster:每个应用程序特有,负责应用程序的管理
- 数据切分
- 为应用程序/作业向ResourceManager申请资源(Container),并分配给内部任务
- 与NodeManager通信以启动、停止任务
- 任务监控和容错(在任务执行失败时重新为该任务申请资源以重启任务)
- 处理ResourceManager发来的命令,让NodeManager重启任务、杀死Container等
- Container:对任务运行环境的抽象
- 任务运行资源的抽象,封装了某个节点上的多维度资源,如内存、cpu、磁盘、网络等
- 任务命令启动、停止的执行单元
- 任务运行环境,任务运行在Container中,一个Container中既可以运行ApplicationMaster也可以运行具体的MapReduce、MPI、Spark等任务
运行流程
用户向YARN中提交应用程序/作业,其中包括ApplicationMaster程序、启动ApplicationMaster的命令、用户程序等。
2) ResourceManager为作业分配第一个Container,并与对应的NodeManager通信,要求它在这个Container中启动该作业的ApplicationMaster。
3) NodeManager启动一个Container运行ApplicationMaster。
4) ApplicationMaster首先向ResourceManager注册,这样用户可以直接通过ResourceManager查询该作业的运行状态;然后它将为各个任务申请资源并监控任务的运行状态。
如果Container没有完全申请到位,则会先使用已经分配到位的部分Container资源进行后续的第5、6、7步骤,其余Container部分由ApplicationMaster采用轮询的方式通过RPC请求向ResourceManager申请和领取资源,直到全部资源分配到位。
5) 一旦ApplicationMaster申请到资源后,便与对应的NodeManager通信,要求它启动任务。
6) NodeManager执行ApplicationMaster发送的命令,启动Container任务。
7)各个Container通过RPC向ApplicationMaster汇报自己的状态和进度,以让ApplicationMaster随时掌握各个任务的运行状态,从而可以在任务失败时重新启动任务。
在作业运行过程中,用户可以随时通过RPC向ApplicationMaster查询作业当前运行状态。
8) 作业完成后,ApplicationMaster向ResourceManager申请注销并关闭自己。
- Yarn调度策略
1、MRv1的调度方式
集中式调度器,资源调度和应用程序的管理功能集中到单一进程完成,扩展性差。
- 集群规模受限,集群达到一定规模(4000个节点)后,JobTracker压力过大容易发生单点故障
- 新的调度策略难以融入到现有代码中,之前仅支持MapReduce作业,现在要支持Spark等作业,而将新的作业的调度策略加入到集中式调度中是极难的工作
2、Yarn双层调度架构
为了克服集中式调度器的不足,双层调度器是一种很容易被想到的解决之道,它可看作是一种分而治之的机制或者是策略下放机制:双层调度器仍保留一个精简化的集中式资源调度器,但具体任务相关的调度策略则下放到各个应用程序调度器完成。
- 将传统的集中式调度器一分为二,即资源调度器(ResourceManager)和应用程序调度器(ApplicationMaster)
- ResourceManager即简化了的集中式资源调度器,具体作业的资源调度和管理由应用程序调度器ApplicationMaster负责
3、常用调度策略
理想情况下,我们应用对Yarn资源的请求应该立刻得到满足,但现实情况资源往往是有限的,特别是在一个很繁忙的集群,一个应用资源的请求经常需要等待一段时间才能的到相应的资源。在Yarn中,负责给应用分配资源的就是Scheduler。其实调度本身就是一个难题,很难找到一个完美的策略可以解决所有的应用场景。为此,Yarn提供了多种调度器和可配置的策略供我们选择。
3.1 FIFO Scheduler(First In First Out,先进先出)
默认的调度策略,把用户提交的作业顺序排成一个队列,所有用户共享,是一个先进先出的队列。
无法控制用户的资源使用,大的应用可能会占用所有集群资源,导致其他应用被阻塞,造成集群的可用性差,所以不适用于共享集群。一般不在生产环境中使用。
3.2 Capacity Scheduler(容器调度器)
允许多用户共享整个集群,每个用户或组织分配专门的队列,不支持抢占式。队列内部默认使用FIFO,也支持Fair调度。
3.3 Fair Scheduler(公平调度器)
目标是为所有用户分配公平的资源。也支持多用户共享集群,也可划分多队列。队列内部不是FIFO,而是采用公平分配的方式。
3.4 总结
调度名称 | 特点 |
FIFO Scheduler | 默认的队列内部调度器,只有一个队列,所有用户共享 ,简单好理解,无法控制用户的资源使用,造成集群的可用性很差。一般不在生产环境使用。 |
Capacity Scheduler | 多用户、分队列、ACL控制、不支持抢占式,队列内部依然是FIFO,也可以采用Fair |
Fair Scheduler | 多用户、分队列、ACL控制、支持抢占式,队列内部不是FIFO,而是公平分配的方式 |
、Yarn shell 应用
使用yarn执行任务,指定任务使用的资源队列名为oncourse。
2.1步骤拆解:
- 新建资源队列oncourse
- 修改MapReduce代码中的Driver代码,使之可以使用yarn命令指定的系统配置参数,如指定所使用的资源队列
- 修改yarn jar指定系统配置参数
- 查看执行结果
- 查看任务使用的资源队列情况
2.2详细执行:
- 新建资源队列,参考上节的配置说明
- 修改MapReduce代码中的Driver代码
新增类GenericOptionsParser:hadoop自带的解析工具类,解析传入的系统配置参数值