spark SQL优化器catalyst学习

2024-06-02 04:28

本文主要是介绍spark SQL优化器catalyst学习,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、Catalyst 概述

  1. Catalyst 是 Spark SQL 的优化器,它负责将 SQL 查询转换为物理执行计划。Catalyst 优化器的目标是生成高效的执行计划,以最小化查询的执行时间。它使用了多种优化技术,包括基于规则的优化、基于代价的优化和动态规划等。
  2. 我们写的SQL语句,会经过一个优化器(catalyst),转化为RDD,交给集群执行。
    select * from table_a
  3. 语法。select * table_a
  4. 词法。selectS * from table_a
  5. AST。abstract syntax tree / 抽象语法树 / 语法树 / syntax tree
    暂时无法在飞书文档外展示此内容
  6. 解析引擎:负责将SQL解析成task。Catalyst的地位类似于Calcite(负责Hive SQL解析优化),Spark SQL独有的Catalyst,解析优化。
  7. MySQL
  8. Hive SQL
  9. Spark SQL
  10. Flink SQL
  11. Doris
  12. Presto
  13. 计算引擎:task是谁来执行。
  14. MySQL
  15. MapReduce
  16. Spark
  17. Tez
  18. Flink
  • Spark on Hive和 Hive on spark的区别?
    • Hive on Spark:Hive是Hive SQL,解析引擎;Spark是计算引擎。
    • Spark on Hive:
      • Hive
        1. 代表是数仓(常见的分层);
        2. 理解:Hive SQL,解析引擎。
      • Spark:代表解析引擎、计算引擎。
      • 含义:通过spark SQL做数仓,层与层的转换。
  • SQL到RDD中间经过了一个Catalyst,它就是SparkSQL的核心,是计对 Spark SQL语句执行过程中的查询优化框架,基于Scala函数式编程结构。
  • RDD的运行流程:RDD->DAGScheduler ->TaskScheduler->worrker,任务会按照代码所示运行,依赖开发者的优化,开发者的会在很大程度上影响运行效率。而SparkSQL的Dataset和SQL并不是直接生成计划交给集群执行,而是经过Catalyst的优化器,这个优化器能够自动帮助开发者优化代码
  • 我们要了解SparkSQL的执行流程,那么理解Catalyst的工作流程是非常有必要的。
    二、 Catalyst 的优化过程
    暂时无法在飞书文档外展示此内容
    Catalyst 的优化过程大致可以分为以下几个阶段:
  1. 解析 ( Parsing ):将 SQL 查询解析为抽象语法树 ( AST )。parser模块目前都是使用第三方类库ANTLR进行实现的。在这个过程汇总,会判断SQL语句是否符合规范,比如select from where等这些关键字是否写对。
    暂时无法在飞书文档外展示此内容
  2. 分析 ( Analysis ):对 AST 进行语义分析,检查查询的合法性和完整性。该模块会遍历整个AST,并对AST上的每个节点进行数据类型绑定以及函数绑定,然后根据源数据信息系catelog对数据表中的字段进行解析,此过程会判断SQL语句的表名,字段名是否真的在元数据库里存在。元数据信息主要包括两部分:表的scheme和基本函数信息。
  3. 表的scheme:
    1. 基本定义。列名,数据类型。
    2. 表的数据格式。json、text
    3. 表的物理位置。
  4. 基本函数
    暂时无法在飞书文档外展示此内容
  5. 优化 ( Optimization ):应用各种优化规则和策略,生成不同的执行计划。主要分为RBO和CBO两种优化策略,其中RBO(Rule-Based Optimizer)是基于规则优化,CBO(Cost-Based Optimizer)是基于代价优化。常见的规则有:
  • 谓词下推predicate Pushdown:将过滤操作下推到join之前进行,之后在进行join的时候,数据量将会显著的减少,join耗时必然降低。
    暂时无法在飞书文档外展示此内容
select*
from table1
inner jointable2
on table1.id = table2.id
where table1.age > 20and table2.cid = 1

上面的语句会自动优化为如下所示:

select*
from 
(select *fromtable1where table1.age > 20
)    a
inner join
(select *fromtable2where table2.cid = 1
)    b
on a.id = b.id

即在资产许那阶段就提前将数据进行过滤,后续的join和shuffle数据量会大大减少。

  • 列值裁剪column pruning:在谓词下推后,可以把表中没有用到的列裁剪掉,这一优化一方面大幅度减少了网络,内存的数据量消耗,另一方面对于劣势存储数据库来说大大提高了扫描效率。
selecta.name,a.age,b.cid
from 
(select *fromtable1where table1.age > 20
)    a
inner join
(select *fromtable2where table2.cid = 1
)    b
on a.id = b.id

上面的语句会自动优化如下图所示:

selecta.name,a.age,b.cid
from 
(select name,agefromtable1where table1.age > 20
)    a
inner join
(select cidfromtable2where table2.cid = 1
)    b
on a.id = b.id

就是提前将需要的列查询出来,其他不需要的列裁剪掉。

  • 常量累加 constant folding:比如计算 x + (100 + 80) -> x + 180,虽然是一个很小的改动,但是意义巨大。如果没有进行优化,每一条结果都需要执行一次100 + 80的操作,然后再与结果相加,优化后就不需要再次执行100 + 80的操作。
select 1 + 1 id
fromtable1

上面的语句会自动优化如下图所示:

select 2 id
fromtable1

就是会提前将1 + 1计算成2,再赋给id列的每行,不用每次都计算一次1+1
4. SparkPlanner模块:

  1. 将优化后的逻辑执行计划(OptimizedLogicalPlan)转换成Physical Plan(物理计划),也就是Spark可以真正的执行的计划。比如join算子,Spark根据不同常见为该算子制定了不同的算法策略,有BroadCastHashJoin,ShuffleHashJoin以及SortMergeJoin等,物理执行假话实际上就是在这些具体实现中挑选一个耗时最小的算法实现。
  2. 具体的实现手段:
    1. SparkPlanner对优化后的逻辑计划进行换算,是生成了多个可以执行的物理计划Physical Plan;接着CBO(基于代价优化)优化策略或根据Cost Model算出每个Physical Plan的代价,并选取最小代价的Physical Plan作最终的Physical Plan。
    2. CostmModel模块:主要根据过去的性能统计数据,选择最佳的物理执行计划,这个过程的优化就是CBO(基于代价优化)
    备注:以上2、3、4步骤结合起来,就是catalyst优化器。
  3. 执行物理计划:最后一句最优的物理执行计划,生成Java字节码,将SQL转化为DAG,以RDD的形式进行操作
  4. 选择 ( Selection ):根据代价模型选择最优的执行计划。
  5. 代码生成 ( Code Generation ):将优化后的执行计划转换为 Spark 代码。
    三、 Catalyst 的优化规则
    Catalyst 提供了许多优化规则,用于改进查询的执行计划。以下是一些常见的优化规则:
  6. 列剪枝 ( Column Pruning ):删除不必要的列,减少数据传输。
  7. 分区剪枝 ( Partition Pruning ):根据分区过滤条件,只读取必要的分区。
  8. 谓词下推 ( Predicate Pushdown ):将过滤条件尽可能地向下推送到数据源,减少数据的读取量。
  9. 聚合优化 ( Aggregation Optimization ):合并相同的聚合操作,避免重复计算。
  10. 连接优化 ( Join Optimization ):选择合适的连接算法,优化连接操作。
    四、 Catalyst 的代价模型
    Catalyst 采用了基于规则的代价模型来评估执行计划的代价。代价模型考虑了以下因素:
  11. 数据量 ( Data Volume ):表的数据大小和分区数。
  12. 计算资源 ( Compute Resources ):CPU、内存和网络带宽等。
  13. I/O 开销 ( I/O Overhead ):数据读取和写入的开销。
  14. 数据倾斜 ( Data Skew ):数据分布不均衡导致的性能问题。
    五、 Catalyst 的代码生成
    Catalyst 将优化后的执行计划转换为 Spark 代码,包括RDD操作和SQL表达式。代码生成过程使用了模板和宏来实现代码的重用和简洁性。
    六、总结
    Spark SQL 的 Catalyst 优化器是一个强大而灵活的优化框架,它采用了多种优化技术和策略,以生成高效的执行计划。了解 Catalyst 的优化过程和规则,可以帮助我们更好地编写高效的 Spark SQL 查询。

以上是一个关于 Spark SQL 优化器 Catalyst 的学习文档,希望对你有所帮助。如果你有任何问题或建议,请随时与我交流。

这篇关于spark SQL优化器catalyst学习的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1023028

相关文章

MySQL数据库双机热备的配置方法详解

《MySQL数据库双机热备的配置方法详解》在企业级应用中,数据库的高可用性和数据的安全性是至关重要的,MySQL作为最流行的开源关系型数据库管理系统之一,提供了多种方式来实现高可用性,其中双机热备(M... 目录1. 环境准备1.1 安装mysql1.2 配置MySQL1.2.1 主服务器配置1.2.2 从

深入理解Mysql OnlineDDL的算法

《深入理解MysqlOnlineDDL的算法》本文主要介绍了讲解MysqlOnlineDDL的算法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小... 目录一、Online DDL 是什么?二、Online DDL 的三种主要算法2.1COPY(复制法)

mysql8.0.43使用InnoDB Cluster配置主从复制

《mysql8.0.43使用InnoDBCluster配置主从复制》本文主要介绍了mysql8.0.43使用InnoDBCluster配置主从复制,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录1、配置Hosts解析(所有服务器都要执行)2、安装mysql shell(所有服务器都要执行)3、

k8s中实现mysql主备过程详解

《k8s中实现mysql主备过程详解》文章讲解了在K8s中使用StatefulSet部署MySQL主备架构,包含NFS安装、storageClass配置、MySQL部署及同步检查步骤,确保主备数据一致... 目录一、k8s中实现mysql主备1.1 环境信息1.2 部署nfs-provisioner1.2.

MySQL中VARCHAR和TEXT的区别小结

《MySQL中VARCHAR和TEXT的区别小结》MySQL中VARCHAR和TEXT用于存储字符串,VARCHAR可变长度存储在行内,适合短文本;TEXT存储在溢出页,适合大文本,下面就来具体的了解... 目录一、VARCHAR 和 TEXT 基本介绍1. VARCHAR2. TEXT二、VARCHAR

MySQL中C接口的实现

《MySQL中C接口的实现》本节内容介绍使用C/C++访问数据库,包括对数据库的增删查改操作,主要是学习一些接口的调用,具有一定的参考价值,感兴趣的可以了解一下... 目录准备mysql库使用mysql库编译文件官方API文档对象的创建和关闭链接数据库下达sql指令select语句前言:本节内容介绍使用C/

mybatis直接执行完整sql及踩坑解决

《mybatis直接执行完整sql及踩坑解决》MyBatis可通过select标签执行动态SQL,DQL用ListLinkedHashMap接收结果,DML用int处理,注意防御SQL注入,优先使用#... 目录myBATiFBNZQs直接执行完整sql及踩坑select语句采用count、insert、u

MySQL之搜索引擎使用解读

《MySQL之搜索引擎使用解读》MySQL存储引擎是数据存储和管理的核心组件,不同引擎(如InnoDB、MyISAM)采用不同机制,InnoDB支持事务与行锁,适合高并发场景;MyISAM不支持事务,... 目录mysql的存储引擎是什么MySQL存储引擎的功能MySQL的存储引擎的分类查看存储引擎1.命令

一文详解MySQL索引(六张图彻底搞懂)

《一文详解MySQL索引(六张图彻底搞懂)》MySQL索引的建立对于MySQL的高效运行是很重要的,索引可以大大提高MySQL的检索速度,:本文主要介绍MySQL索引的相关资料,文中通过代码介绍的... 目录一、什么是索引?为什么需要索引?二、索引该用哪种数据结构?1. 哈希表2. 跳表3. 二叉排序树4.

MySQL批量替换数据库字符集的实用方法(附详细代码)

《MySQL批量替换数据库字符集的实用方法(附详细代码)》当需要修改数据库编码和字符集时,通常需要对其下属的所有表及表中所有字段进行修改,下面:本文主要介绍MySQL批量替换数据库字符集的实用方法... 目录前言为什么要批量修改字符集?整体脚本脚本逻辑解析1. 设置目标参数2. 生成修改表默认字符集的语句3