当前位置: 代码网 > it编程>游戏开发>ar > 【大数据】Hadoop 2.X和1.X升级优化对比

【大数据】Hadoop 2.X和1.X升级优化对比

2024年08月01日 ar 我要评论
一文详解hadoop 2.X版本对于1.X版本做出的优化和升级

目录

1.前言

2.hadoop 1.x的缺点和优化方向

3.解决namenode的局限性

3.1.hadoop ha

3.2.haddop federation

4.yarn

5.周边组件


1.前言

本文是作者大数据系列中的一文,专栏地址:

前文中我们从大数据的概论入手、分别聊了分布式文件系统的鼻祖gfs、分布式数据库的鼻祖big table、hadoop中的分布式文件系统hdfs、计算引擎map reduce、分布式数据库hbase。以上关于hadoop的内容都是基于hadoop 1.x来聊的,hadoop 1.x作为推出的第一个版本经过实战的检验发现还有诸多很需要优化的地方,本文就会来聊一下hadoop 2.x中对hadoop 1.x做了哪些优化。

2.hadoop 1.x的缺点和优化方向

hadoop1.0版本有几个待优化点:

  • namenode是单节点的,存储上会有上限,容错上也会有局限性。

  • 抽象层次低,需要大量的底层操作,即大量指令操作、大量代码编写。

  • 计算引擎有局限性限

    • mapreduce能解决的问题有限

    • 资源利用率地,由于没有很好的资源调度机制,而是粗略的将不同作业之间的资源直接相互独立开来,会导致各个job的资源只有自己能用,就算已经到了reduce阶段,自身的map资源也不能被别的job用到。

    • 效率很低,mapreduce的单个计算任务的结果会存入hdfs中,也就是落了磁盘,因此如果是进行迭代计算(上一个job的输出是下一个job的输入)就要来回读hdfs。

hadoop在2.x版本中对这些问题从两方便做了优化:

  • 优化自身的核心组件hdfs、mapreduce

  • 引入其它周边的配套组件,扩展能力

首先是对核心组件的优化:

组件1.x存在的问题2.x的改进
hdfsnamenode存在单点失效问题引入hdfs ha,对namenode进行热备
hdfs命名空间单一无法实现资源隔离引入hdfs federation,分出多个命名空间
mapreduce资源管理、调度效率低引入单独的资源管理框架yarn

其次是扩展了周边组件,增强了能力:

组件功能所解决的问题
pig用户只需要编写少量语句就能完成计算任务,省去mapreduce的代码编写抽象层次低
spark基于内存的计算框架,比mapreduce快,有良好实时性,迭代计算快计算任务延迟高,不适合迭代计算
tez支持dag作业,对作业操作进行重新分解和组合,减少不必要的操作,相当于对map reduce进行过程精简不同map reduce之间存在重复此操作,拉低了效率

3.解决namenode的局限性

3.1.hadoop ha

hadoop ha属于一种架构,是对hadoop的水平扩展,用来解决namenode没有热备份的问题。

ha架构中将namenode分为活跃和待命两种状态,活跃和待命节点通过共享的存储系统来同步元数据信息。就是说活跃的把元数据信息实时放到共享存储中,待命节点自己去拿,从而做到同步。

至于选哪个作为活跃名称节点对外暴露,交给zookeeper就好。

3.2.haddop federation

haddop federation属于一种架构,是对hadoop的垂直扩展,用来解决单节点存储上限的问题,如果名称节点是单节点那么内存会很有局限性,毕竟要装入内存的元数据很多。

hadoop federation将名称节点切分为不同的命名空间(其实就是文件系统路径下的不同的文件夹),一个名称上面有一个或者多个命名空间,不同的名称节点上管理不同的命名空间。

至于客户端怎么访问到自己要的命名空间喃?会在客户端本地提前配置好映射,指定客户端去访问哪些名称节点。

4.yarn

yarn是hadoop 2.x开始引入的资源调度、监控框架。

在hadoop 1.x中,map reduce干的活儿很杂,既是个资源调度框架,要负责资源调度、任务监控、还是个计算框架,要负责具体的计算。作为资源调度框架来说,hadoop 1.x的设计上不太合理,所以hadoop在2.x的时候借着重构资源调度框架的时候,将资源调度单独拆了出来做成了新的组件——yarn。这样拆之后在hadoop 2.x开始mapreduce就不再负责资源调度,而是一个纯计算框架。

hadoop 1.x的设计上哪里不合理:

全部资源管理、全部job的任务调度、全部job的任务监控都要由jobtracker来负责,压力太大了。就像公司管理一样,所有员工直接对接老板,老板肯定扛不住,分级对接才是正解,老板就能减轻很多压力。每一级对接自己的管理层,管理层再统一对接老板yarn的设计思想就是这种分级管理的思想。

yarn有三大核心组件:

  • resource manager,负责资源管理
  • application master,负责任务调度、任务监控
  • nodemanager,在具体节点上负责与前两者通信

map reduce 1.x与yarn的组件类比:

三大核心组件如何配合工作:

  • resourcemanager (rm):
    • rm 是全局的资源调度器,负责整个集群的资源管理和分配。
    • 它维护着集群的全局视图,了解所有节点的状态和可用资源。
    • 当应用程序提交时,rm 启动一个 applicationmaster 进程。
    • rm 与各个 nodemanager 通信以获取和更新节点状态。
  • applicationmaster (am):
    • am 是每个应用程序的代理,负责应用程序的执行逻辑和资源请求。
    • 应用程序启动后,am 会向 rm 申请资源(如内存、cpu 核心等)来运行任务。
    • am 和 rm 通过一个协商过程来获取资源,这个过程可能是基于优先级或公平共享的策略。
    • 一旦获得资源,am 会将这些资源进一步划分为更小的单位,即 containers。
  • nodemanager (nm):
    • nm 是每个节点上的代理,它负责管理该节点上的资源和容器实例。
    • nm 向 rm 报告节点的资源使用情况和健康状况。
    • 当 am 请求资源时,rm 将资源分配给 nm,然后 nm 根据指示启动容器。
    • nm 监控容器的生命周期,包括启动应用程序的任务,监控资源使用,以及在任务完成或失败时清理资源。
  • container:
    • container 是 yarn 中资源分配的基本单位,它包含了一定量的 cpu、内存和其他资源。
    • am 会将任务分解为多个小任务,并在多个 container 中运行这些任务。
    • am 直接与 nm 通信来启动和停止 container,以及监控任务的进度和状态。

5.周边组件

关于2.x中新引入的组件这里不做扩展,只是大概说一下引入了些什么东西、解决了些什么问题,后续聊到相关组建的时候会细聊。

2.x引入的周边组件主要是围绕封装操作和扩展计算引擎来的,追求用更方便的方式来访问存储和编写计算任务,以及支持更多类型的计算引擎来应对不同的场景。

pig用pig latin语言来封装了map reduce,以便我们减少代码的编写:

tez用dag作业的方式来优化了map reduce过程,提高了map reduce的执行效率:

至于spark计算引擎,接下来的文章会详聊,敬请期待。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com