当前位置: 代码网 > it编程>游戏开发>ar > 【大数据】计算引擎:Spark核心概念

【大数据】计算引擎:Spark核心概念

2024年07月28日 ar 我要评论
十分钟,一文讲明白复杂抽象的Spark核心概念。

目录

前言

1.什么是spark

2.核心概念

2.1.spark如何拉高计算性能

2.2.rdd

2.3.stage

3.运行流程


前言

本文是作者大数据系列中的一文,专栏地址:

该系列会成体系的聊一聊整个大数据的技术栈,绝对干货,欢迎订阅。

1.什么是spark

整个大数据的计算引擎是先有了mapreduce,再有的其它,可以理解为后面出现的其它计算引擎都是对mapreduce的一个补足与升级。

spark就是对mapreduce的一个补足与升级,其弥补了mapreduce在迭代计算上孱弱的缺陷。其核心就是将数据内存中来,而不是每次都要去读磁盘,进行磁盘io。

spark是什么:

spark是基于内存的计算引擎,它不是指单个技术,而是指一个技术栈,一个构建于spark core上面的全套的用来处理各种计算的技术栈。

spark core提供了什么能力:

spark既然是补足,就要先说mapreduce在计算这一方面的不足,mapreduce在计算性能上存在的核心问题是迭代计算性能不好,原因是结果需要写入hdfs中。要用到这个结果的后续作业要先去读hdfs,拿到数据,这无疑是十分缓慢的。

我们反过来想,mapreduce为什么要这样干?

mapreduce不是想这么干,而是只能这么干,因为如果不将结果写入hdfs中,全局怎么能找得到这个数据喃?要是写入hdfs,就能通过namenode找到数据。

要更好的支持迭代计算,无疑将计算结果放在内存中是最好的,读内存毕竟比读磁盘快多了。落磁盘是因为hdfs帮我们管理了分布式的磁盘资源,我们可以找它拿数据,落内存还要找到分布式系统中存储的数据,这就需要另一套内存管理机制来帮我们管理分布式内存了。这套内存管理机制叫rdd,就是spark core提供的。

spark的特点总结:

spark是基于内存的计算引擎,其也是mapreduce模式的,但是相较于mapreducce:

  • spark支持更多种数据集操作,编程模型更灵活。

  • 由于是在内存中流转的,不像mapreducce的结果是落在分布式文件系统中的,所以spark的速度更快。

  • 天生基于dag,比mapreduce过程更简洁高效。

在大数据领域一般存在以下几种使用场景:

  • 复杂的批量数据处理,用mapreduce,一般业务耗时需求能忍受在数十分钟到数小时

  • 基于历史数据的交互式查询,用数据仓库,一般业务耗时需求能忍受在数十秒到数分钟

  • 基于实时数据流的数据处理,用spark,一般业务耗时需求能忍受在数百毫秒到数秒

spark其实是一个全套的基于内存的技术栈,其基于spark core可以完成各种各样数据的计算。spark提供了一组什么能力?就是接下来我们在下一节要讲的核心概念的内容。

2.核心概念

2.1.spark如何拉高计算性能

spark对比mapreuce之所以做迭代计算性能好,是因为两个核心点:

  • 有向无环图

  • 基于内存

以上就是spark core提供的东西,接下来会通过一个例子来逐步带大家一点点的推出spark core的这两个核心概念。

首先是计算任务的过程有两种,一种是要分前后阶段,前后阶段之间有依赖关系,一种是不分前后阶段,可以并行执行的。

分前后阶段的:

这个查询会有两个阶段。首先k会执行子查询(过滤年龄大于18的记录),这个操作产生一个中间结果。然后,它会在中间结果上执行第二个过滤操作(筛选性别为男性的记录)。由于这两个操作是连续的,它们之间存在依赖关系,必须按照顺序执行。

可以并行执行的:

这个查询可以分成两个子任务,去查a的数据。去查b的数据,这两个任务是可以并行执行的,最后合在一起就可以了。

上面的例子主要是带大家感受一下,计算任务的子流程无非就是两种,要么有先后依赖关系,要么可以并行执行。

对于一个计算任务而言,最高效的方式就是将能并行的子流程并行执行,有依赖关系的子流程串行执行,也就是说逻辑关系上子任务之间组成这样的有向无环图,效率上是最佳的:

ok,其实把上面聊完,spark的核心概念就已经出来了:

  • rdd

  • stage

2.2.rdd

rdd其实就是有向无环图的节点。我们想一想这些节点会是什么?其实就是计算任务,但是光有任务是无法完成工作的,还需要对应数据,所以这个有向无环图上的节点就是任务+数据的一个抽象,理解为一个单独可以完成的子任务即可。

rdd里面存的其实也不是数据:

spark肯定不能去操作hdfs,走磁盘io的方式读数据,本来spark就是要解决这个问题的。所以要把内存利用起来,内存里也不能直接装数据,毕竟数据量那么大,内存肯定也装不下,所以内存中只能装要用到的数据在磁盘中的位置信息,也就是一个映射。总结起来rdd里面存的其实就是计算任务和数据映射。

总结一下rdd是什么:

  • rdd 是理解成集合就行了,它是只读的、可分区的数据集合,其成员分布在集群的不同节点上。

  • 每个rdd对应着hdfs中的一个或者多个文件。

  • 每个 rdd 被分成多个分区(partition),每个分区对应一个或多个数据块。

  • rdd 不可修改,可以通过操作其他 rdd 生成,这些操作包括转换(如 map、filter)和动作(如 count、save)。

  • rdd并不直接存储数据,而是由其分块记录着对应的hdfs的数据分区中参与运算的数据信息

  • 数据(叫运算结果更准确点)是在rdd的分区中流转的,rdd只是一个抽象概念,具体干活的分区,数据是在不同rdd的不同分区中流转的。

rdd如何生成:

2.3.stage

观察下面一幅图:

可以看到有些任务之间没有交叉的依赖关系,所以其实是可以并行计算的,比如stage1和stage2,这样并行计算无疑也拉高了计算速度。spark中将一组可以关起门来自己玩儿和其它任务之间没有交叉依赖关系的任务叫做stage,理解为一个任何集合即可。

stage划分的依据是什么?

首先有两个概念:

窄依赖:每一个父rdd的分区最多被一个子rdd的分区所使用。这意味着数据的转换可以在分区级别上直接进行,而不需要跨分区的数据重组。

宽依赖:一个父rdd的分区可能被多个子rdd的分区所使用,或者一个父rdd的所有分区数据需要被重组以供应给子rdd的某些分区。

从节点出发,窄依赖为一个stage,遇到第一个宽依赖就断开,作为stage的边界。

rdd、rdd分区、stage三者之间的关系:

rdd是spark中最基本的数据抽象,代表一个不可变、可分区、且元素可并行计算的集合,直接理解成为分布式内存的抽象即可。rdd的数据是分布存储的,意味着spark集群中的每个节点上只存储了rdd的部分数据,这些数据被划分为多个分区。

分区是rdd的一个重要概念,它指的是将数据划分为多个逻辑部分,以便于在集群的不同节点上进行并行处理。分区的数量和大小可以影响spark作业的性能,因此通常需要根据具体情况进行合理配置。每个分区在物理上可能存储在集群的一个或多个节点上,这样spark就可以利用集群的并行计算能力来处理数据。

stage是spark作业执行过程中的一个逻辑阶段,代表了一组具有依赖关系的任务集合。在spark中,一个作业(job)通常会被划分为多个阶段(stage),每个阶段包含一组可以并行执行的任务(task)。阶段的划分主要基于rdd之间的依赖关系,特别是宽依赖(即一个分区的计算依赖于多个父rdd的分区)。宽依赖会导致新的stage的产生,因为需要在不同的节点上重新组合数据。

因此,rdd、分区和stage在spark中构成了数据处理和执行的关键组件。rdd提供了数据的分布式表示,分区实现了数据的并行处理,而stage则代表了作业执行的逻辑阶段。这三者相互协作,使得spark能够高效地处理大规模数据集。

3.运行流程

spark的架构和工作流程其实就是map reduce2.0那一套。map reduce2.0也算是玩明白了,靠谱的分布式计算引擎就应该是:

  • 做流程上的优化(dag),以保证有个最有的依赖路径
  • 每个计算任务内部的调度和监控独立(每个作业一个executor或者application master之类的东西) spark其实就是完整的实现了这一套。

所以spark的整体运行流程如下:

spark的运行流程可以概括为以下几个主要步骤:

  • 启动 spark application: 用户编写一个spark应用程序并提交给spark集群运行。 spark集群初始化,启动一个driver进程。driver是spark应用的主控进程,负责管理和协调整个应用的执行。

  • 建立运行环境: driver启动后,会创建一个sparkcontext(spark上下文)实例。sparkcontext是spark与cluster manager(集群管理器)进行通信的桥梁,也是整个应用的主要入口点。 sparkcontext向cluster manager注册应用,并请求资源,比如申请executor进程来执行具体任务。

  • 资源分配与executor启动: cluster manager(如yarn、mesos或standalone)接收到资源请求后,根据当前集群状况为应用分配资源,并启动executor进程。 executor是spark应用在工作节点(worker node)上运行的进程,负责在分配给它们的资源上执行任务,并将结果返回给driver。

  • 构建dag与stage划分: sparkcontext根据应用程序中的rdd操作构建dag(有向无环图),代表了操作之间的依赖关系。 dag scheduler分析dag,将其拆分成多个stage。通常,stage的边界发生在shuffle操作处,因为shuffle操作会导致数据重分布。

  • 任务调度与执行: task scheduler(任务调度器)根据stage内的任务集(taskset)进一步安排任务到各个executor上执行。 executor向sparkcontext申请task,task scheduler分配任务并发送代码(来自应用的jar包)到executor。 executor在本地线程中执行task,并处理数据,可能涉及读取、转换、写入数据等操作。

  • 结果收集与输出: executor完成任务后,将结果返回给task scheduler,再转交给driver。 如果是action操作,如collect,最终结果会被收集到driver上;如果是transformation,则结果可能继续留在executor内存中供进一步处理。

  • 资源清理与应用结束: 应用程序执行完毕,sparkcontext向cluster manager注销,释放所有executor资源。 executor进程停止,相关资源回收,集群准备服务于下一个应用。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com