Spark SQL用UDF实现按列特征重分区 repatition

2024-04-06 18:58

本文主要是介绍Spark SQL用UDF实现按列特征重分区 repatition,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

转:https://cloud.tencent.com/developer/article/1371921

解决问题之前,要先了解一下Spark 原理,要想进行相同数据归类到相同分区,肯定要有产生shuffle步骤。

比如,F到G这个shuffle过程,那么如何决定数据到哪个分区去的呢?这就有一个分区器的概念,默认是hash分区器。

假如,我们能在分区这个地方着手的话肯定能实现我们的目标。

那么,在没有看Spark Dataset的接口之前,浪尖也不知道Spark Dataset有没有给我门提供这种类型的API,抱着试一试的心态,可以去Dataset类看一下,这个时候会发现有一个函数叫做repartition。

/*** Returns a new Dataset partitioned by the given partitioning expressions, using* `spark.sql.shuffle.partitions` as number of partitions.* The resulting Dataset is hash partitioned.** This is the same operation as "DISTRIBUTE BY" in SQL (Hive QL).** @group typedrel* @since 2.0.0*/@scala.annotation.varargsdef repartition(partitionExprs: Column*): Dataset[T] = {repartition(sparkSession.sessionState.conf.numShufflePartitions, partitionExprs: _*)}

可以传入列表达式来进行重新分区,产生的新的Dataset的分区数是由参数spark.sql.shuffle.partitions决定,那么是不是可以满足我们的需求呢?

明显,直接用是不行的,可以间接使用UDF来实现该功能。

方式一-简单重分区

首先,实现一个UDF截取列值共同前缀,当然根据业务需求来写该udf

val substring = udf{(str: String) => {str.substring(0,str.length-1)}}

注册UDF

spark.udf.register("substring",substring)

创建Dataset

val sales = spark.createDataFrame(Seq(("Warsaw1", 2016, 100),("Warsaw2", 2017, 200),("Warsaw3", 2016, 100),("Warsaw4", 2017, 200),("Beijing1", 2017, 200),("Beijing2", 2017, 200),("Warsaw4", 2017, 200),("Boston1", 2015, 50),("Boston2", 2016, 150))).toDF("city", "year", "amount")

执行充分去操作

val res = sales.repartition(substring(col("city")))

打印分区ID及对应的输出结果

res.foreachPartition(partition=>{println("---------------------> Partition start ")println("partitionID is "+TaskContext.getPartitionId())partition.foreach(println)println("=====================> Partition stop ")})

浪尖这里spark.sql.shuffle.partitions设置的数值为10.

输出结果截图如下:

方式二-SQL实现

对于Dataset的repartition产生的shuffle是不需要进行聚合就可以产生shuffle使得按照字段值进行归类到某些分区。

SQL的实现要实现重分区要使用group by,然后udf跟上面一样,需要进行聚合操作。

完整代码如下:

val sales = spark.createDataFrame(Seq(("Warsaw1", 2016, 100),("Warsaw2", 2017, 200),("Warsaw3", 2016, 100),("Warsaw4", 2017, 200),("Beijing1", 2017, 200),("Beijing2", 2017, 200),("Warsaw4", 2017, 200),("Boston1", 2015, 50),("Boston2", 2016, 150))).toDF("city", "year", "amount")sales.registerTempTable("temp");val substring = udf{(str: String) => {str.substring(0,str.length-1)}}spark.udf.register("substring",substring)val res = spark.sql("select sum(amount) from temp group by substring(city)")
//res.foreachPartition(partition=>{println("---------------------> Partition start ")println("partitionID is "+TaskContext.getPartitionId())partition.foreach(println)println("=====================> Partition stop ")})

输出结果如下:

由上面的结果也可以看到task执行结束时间是无序的。

浪尖在这里主要是讲了Spark SQL 如何实现按照自己的需求对某列重分区。

那么,浪尖在这里就顺带问一下,如何用Spark Core实现该功能呢?

这篇关于Spark SQL用UDF实现按列特征重分区 repatition的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/880586

相关文章

Python位移操作和位运算的实现示例

《Python位移操作和位运算的实现示例》本文主要介绍了Python位移操作和位运算的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1. 位移操作1.1 左移操作 (<<)1.2 右移操作 (>>)注意事项:2. 位运算2.1

如何在 Spring Boot 中实现 FreeMarker 模板

《如何在SpringBoot中实现FreeMarker模板》FreeMarker是一种功能强大、轻量级的模板引擎,用于在Java应用中生成动态文本输出(如HTML、XML、邮件内容等),本文... 目录什么是 FreeMarker 模板?在 Spring Boot 中实现 FreeMarker 模板1. 环

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

SpringMVC 通过ajax 前后端数据交互的实现方法

《SpringMVC通过ajax前后端数据交互的实现方法》:本文主要介绍SpringMVC通过ajax前后端数据交互的实现方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价... 在前端的开发过程中,经常在html页面通过AJAX进行前后端数据的交互,SpringMVC的controll

Spring Security自定义身份认证的实现方法

《SpringSecurity自定义身份认证的实现方法》:本文主要介绍SpringSecurity自定义身份认证的实现方法,下面对SpringSecurity的这三种自定义身份认证进行详细讲解,... 目录1.内存身份认证(1)创建配置类(2)验证内存身份认证2.JDBC身份认证(1)数据准备 (2)配置依

利用python实现对excel文件进行加密

《利用python实现对excel文件进行加密》由于文件内容的私密性,需要对Excel文件进行加密,保护文件以免给第三方看到,本文将以Python语言为例,和大家讲讲如何对Excel文件进行加密,感兴... 目录前言方法一:使用pywin32库(仅限Windows)方法二:使用msoffcrypto-too

C#使用StackExchange.Redis实现分布式锁的两种方式介绍

《C#使用StackExchange.Redis实现分布式锁的两种方式介绍》分布式锁在集群的架构中发挥着重要的作用,:本文主要介绍C#使用StackExchange.Redis实现分布式锁的... 目录自定义分布式锁获取锁释放锁自动续期StackExchange.Redis分布式锁获取锁释放锁自动续期分布式

springboot使用Scheduling实现动态增删启停定时任务教程

《springboot使用Scheduling实现动态增删启停定时任务教程》:本文主要介绍springboot使用Scheduling实现动态增删启停定时任务教程,具有很好的参考价值,希望对大家有... 目录1、配置定时任务需要的线程池2、创建ScheduledFuture的包装类3、注册定时任务,增加、删

SpringBoot整合mybatisPlus实现批量插入并获取ID详解

《SpringBoot整合mybatisPlus实现批量插入并获取ID详解》这篇文章主要为大家详细介绍了SpringBoot如何整合mybatisPlus实现批量插入并获取ID,文中的示例代码讲解详细... 目录【1】saveBATch(一万条数据总耗时:2478ms)【2】集合方式foreach(一万条数

使用Python实现矢量路径的压缩、解压与可视化

《使用Python实现矢量路径的压缩、解压与可视化》在图形设计和Web开发中,矢量路径数据的高效存储与传输至关重要,本文将通过一个Python示例,展示如何将复杂的矢量路径命令序列压缩为JSON格式,... 目录引言核心功能概述1. 路径命令解析2. 路径数据压缩3. 路径数据解压4. 可视化代码实现详解1