大数据学习~Hadoop初识三Yarn模式
我们都知道在如今的Hadoop中主要有三个重要的执行管理器。一个HDFS,一个MapReduce,还有就是我们今天要看的 YARN。
2.0以前的Hadoop
在2.0以前的hadoop中是没有Yarn这个模式管理的。大部分都是独自作战。Hbase做自己的,Spark也是做自己的,等等。这样的话就会造成资源的浪费,不能充分的把资源给利用上。特别是在1.x的版本上容易出现单点故障,不容易扩展的情况。
在这里Client的请求都会通过1个JobTracker来分发任务,如果我们的这个JobTracker出现异常。整个集群就没法参与正常工作。
在JobTracker 过多的TaskScheduler 集中过来,容易造成内存,cpu不够用的情况。增加了任务执行失败的风险。
因为这些情况,随着发展,Hadoop需要更新的一代管理引擎来帮助我们管理集群-YARN引擎
在2.0的YARN
在新的业务驱动下,发展起来的YARN替代原先的模式。将原先浪费的资源进行合并,共同管理建立在一个模式管理下
新的YARN模式如下
- 从图中我们可以看到 原先的JobTracker 被拆分成 资源管理和任务调度监控。
- 我们来看下如今的架构
ResourceManager : 在集群中提供资源的统一管理和调度。并且接收来自客户端的请求。同时不停的接收来自 DataNode上的心跳信息。并且对集群进行管理。
NodeManager :
在整个集群中会有多个该节点。主要用来维护自己节点上资源的管理和使用。
定时向ResourceManager 汇报自己资源的使用情况。并且 接收来自ResourceManager 各种命令
启动我们在图中看到的ApplicationMaster.
ApplicationMaster :
该ApplicationMaster 对应我们提交的程序,该程序可以来自Spark,Hbase , MapReduce.该master向管理器YARN申请资源。然后供应用程序使用。
分配任务给接下来的Container 。包含启动,停止任务。
Container
封装了CPU ,Memory 等资源的容器。
Client
通过client来提交任务,进行任务的开始与结束。并且查询任务的执行进度等情况。
了解了这几个功能名称的作用,我们来看下整个任务执行流程是怎么样的。
从Client端发送一个 请求到我们的ResourceManager 上。其中内容应该包含ApplicationMaster,ApplicationMaster的启动命令。本身应用程序的内容。
ResourceManager 分配任务到NodeManager上
NodeManager根据配置信息进行处理启动ApplicationMaster 。
注册到ResourceManager,并且申请到资源返回到我们的ApplicationMaster 上。
根据申请到的资源注册到NodeManger上。
NodeManager 启动对应的Container上。在这之间会通过心跳进行任务汇报。然后任务汇报后。进行任务管理。
总结
整个yarn的流程和新的结构大概就是如此。新模式解决了原先的单点问题。并且挺高了高可用性和扩展性。一套集群环境就能供多个应用程序使用。YARN模式帮助我们解决掉了资源管理的问题,程序员关注业务开发即可。
原文发布时间为:2018-06-22
本文作者:mengrui LuckQI
本文来自云栖社区合作伙伴“LuckQI”,了解相关信息可以关注“LuckQI”。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
spark-submit提交Spark Streamming+Kafka程序
版权声明:本文由董可伦首发于https://dongkelun.com,非商业转载请注明作者及原创出处。商业转载请联系作者本人。 https://blog.csdn.net/dkl12/article/details/80846156 我的原创地址:https://dongkelun.com/2018/06/19/sparkSubmitKafka/ 前言 Spark Streaming本身是没有Kafka相关的jar包和API的,如果想利用Spark Streaming获取Kafka里的数据,需要自己将依赖添加SBT或Maven项目中,添加依赖更新项目之后,就可以在Eclipse等IDE里直接运行Spark Streamming+Kafka的程序了,可参考Spark Streaming连接Kafka入门教程,但是如果需要在集群通过spark-submit提交jar包的方式来运行程序的话,会抛出异常: Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/kafka/common/serializati...
- 下一篇
ElasticSearch DSL Script使用案例分享
the best elasticsearch highlevel java rest api-----bboss ElasticSearch DSL Script使用案例分享,涉及到的功能点: 脚本片段使用 多行文本使用 添加属性字段 1前言 先看看elasticsearch官方的script dsl块文本的写法:通过一对""" """来包含块文本 { "query": { "function_score": { "script_score": { "script": { "lang": "painless", "source": """ int total = 0; for (int i = 0; i < doc['goals'].length; ++i) { total += doc['goals'][i]; } return total; """ } } } } } 对应的bboss script dsl块文本的写法:通过一对@""" """来包含块文本 { "query": { "function_score": { "script_score": { "script":...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Hadoop3单机部署,实现最简伪集群
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Windows10,CentOS7,CentOS8安装Nodejs环境
- 设置Eclipse缩进为4个空格,增强代码规范
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS7设置SWAP分区,小内存服务器的救世主
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- Linux系统CentOS6、CentOS7手动修改IP地址
- Docker安装Oracle12C,快速搭建Oracle学习环境