【Flink】双流处理:实时对账实现

2024-08-29 10:32

本文主要是介绍【Flink】双流处理:实时对账实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Flink双流处理:实时对账实现

  • 一、基础概念
  • 二、双流处理的方法
    • Connect
    • Union
    • Join
  • 三、实战:实时对账实现
    • 需求描述
    • 需求分析
    • 代码实现
  • 相关阅读

更多内容详见:https://github.com/pierre94/flink-notes

一、基础概念

主要是两种处理模式:

  • Connect/Join
  • Union

二、双流处理的方法

Connect

DataStream,DataStream → ConnectedStreams

连接两个保持他们类型的数据流,两个数据流被Connect之后,只是被放在了一个同一个流中,内部依然保持各自的数据和形式不发生任何变化,两个流相互独立。

Connect后使用CoProcessFunction、CoMap、CoFlatMap、KeyedCoProcessFunction等API 对两个流分别处理。如CoMap:

val warning = high.map( sensorData => (sensorData.id, sensorData.temperature) )
val connected = warning.connect(low)val coMap = connected.map(
warningData => (warningData._1, warningData._2, "warning"),
lowData => (lowData.id, "healthy")
)

(ConnectedStreams → DataStream 功能与 map 一样,对 ConnectedStreams 中的每一个流分别进行 map 和 flatMap 处理。)

疑问,既然两个流内部独立,那Connect 后有什么意义呢?

Connect后的两条流可以共享状态,在对账等场景具有重大意义!

Union


DataStream → DataStream:对两个或者两个以上的 DataStream 进行 union 操作,产生一个包含所有 DataStream 元素的新 DataStream。

val unionStream: DataStream[StartUpLog] = appStoreStream.union(otherStream) unionStream.print("union:::")

注意:Union 可以操作多个流,而Connect只能对两个流操作

Join

Join是基于Connect更高层的一个实现,结合Window实现。

相关知识点比较多,详细文档见: https://ci.apache.org/projects/flink/flink-docs-release-1.10/dev/stream/operators/joining.html

三、实战:实时对账实现

需求描述

有两个时间Event1、Event2,第一个字段是时间id,第二个字段是时间戳,需要对两者进行实时对账。当其中一个事件缺失、延迟时要告警出来。

需求分析

类似之前的订单超时告警需求。之前数据源是一个流,我们在function里面进行一些改写。这里我们分别使用Event1和Event2两个流进行Connect处理。

// 事件1
case class Event1(id: Long, eventTime: Long)
// 事件2
case class Event2(id: Long, eventTime: Long)
// 输出结果
case class Result(id: Long, warnings: String)

代码实现

scala实现

涉及知识点:

  • 双流Connect
  • 使用OutputTag侧输出
  • KeyedCoProcessFunction(processElement1、processElement2)使用
  • ValueState使用
  • 定时器onTimer使用

启动两个TCP服务:

nc -lh 9999
nc -lk 9998

注意:nc启动的是服务端、flink启动的是客户端

import java.text.SimpleDateFormatimport org.apache.flink.api.common.state.{ValueState, ValueStateDescriptor}
import org.apache.flink.streaming.api.TimeCharacteristic
import org.apache.flink.streaming.api.functions.co.KeyedCoProcessFunction
import org.apache.flink.streaming.api.scala.{StreamExecutionEnvironment, _}
import org.apache.flink.util.Collectorobject CoTest {val simpleDateFormat = new SimpleDateFormat("dd/MM/yyyy:HH:mm:ss")val txErrorOutputTag = new OutputTag[Result]("txErrorOutputTag")def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironmentenv.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)env.setParallelism(1)val event1Stream = env.socketTextStream("127.0.0.1", 9999).map(data => {val dataArray = data.split(",")Event1(dataArray(0).trim.toLong, simpleDateFormat.parse(dataArray(1).trim).getTime)}).assignAscendingTimestamps(_.eventTime * 1000L).keyBy(_.id)val event2Stream = env.socketTextStream("127.0.0.1", 9998).map(data => {val dataArray = data.split(",")Event2(dataArray(0).trim.toLong, simpleDateFormat.parse(dataArray(1).trim).getTime)}).assignAscendingTimestamps(_.eventTime * 1000L).keyBy(_.id)val coStream = event1Stream.connect(event2Stream).process(new CoTestProcess())//    union 必须是同一条类型的流//    val unionStream = event1Stream.union(event2Stream)//    unionStream.print()coStream.print("ok")coStream.getSideOutput(txErrorOutputTag).print("txError")env.execute("union test")}//共享状态class CoTestProcess() extends KeyedCoProcessFunction[Long,Event1, Event2, Result] {lazy val event1State: ValueState[Boolean]= getRuntimeContext.getState(new ValueStateDescriptor[Boolean]("event1-state", classOf[Boolean]))lazy val event2State: ValueState[Boolean]= getRuntimeContext.getState(new ValueStateDescriptor[Boolean]("event2-state", classOf[Boolean]))override def processElement1(value: Event1, ctx: KeyedCoProcessFunction[Long, Event1, Event2, Result]#Context, out: Collector[Result]): Unit = {if (event2State.value()) {event2State.clear()out.collect(Result(value.id, "ok"))} else {event1State.update(true)//等待一分钟ctx.timerService().registerEventTimeTimer(value.eventTime + 1000L * 60)}}override def processElement2(value: Event2, ctx: KeyedCoProcessFunction[Long, Event1, Event2, Result]#Context, out: Collector[Result]): Unit = {if (event1State.value()) {event1State.clear()out.collect(Result(value.id, "ok"))} else {event2State.update(true)ctx.timerService().registerEventTimeTimer(value.eventTime + 1000L * 60)}}override def onTimer(timestamp: Long, ctx: KeyedCoProcessFunction[Long, Event1, Event2, Result]#OnTimerContext, out: Collector[Result]): Unit = {if(event1State.value()){ctx.output(txErrorOutputTag,Result(ctx.getCurrentKey,s"no event2,timestamp:$timestamp"))event1State.clear()}else if(event2State.value()){ctx.output(txErrorOutputTag,Result(ctx.getCurrentKey,s"no event1,timestamp:$timestamp"))event2State.clear()}}}}

相关阅读

《Flink状态编程: 订单超时告警》:
https://blog.csdn.net/u013128262/article/details/104648592

《github:Flink学习笔记》:
https://github.com/pierre94/flink-notes


原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

https://cloud.tencent.com/developer/article/1596145

这篇关于【Flink】双流处理:实时对账实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1117607

相关文章

SpringBoot集成redisson实现延时队列教程

《SpringBoot集成redisson实现延时队列教程》文章介绍了使用Redisson实现延迟队列的完整步骤,包括依赖导入、Redis配置、工具类封装、业务枚举定义、执行器实现、Bean创建、消费... 目录1、先给项目导入Redisson依赖2、配置redis3、创建 RedissonConfig 配

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF

Nginx部署HTTP/3的实现步骤

《Nginx部署HTTP/3的实现步骤》本文介绍了在Nginx中部署HTTP/3的详细步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录前提条件第一步:安装必要的依赖库第二步:获取并构建 BoringSSL第三步:获取 Nginx

MyBatis Plus实现时间字段自动填充的完整方案

《MyBatisPlus实现时间字段自动填充的完整方案》在日常开发中,我们经常需要记录数据的创建时间和更新时间,传统的做法是在每次插入或更新操作时手动设置这些时间字段,这种方式不仅繁琐,还容易遗漏,... 目录前言解决目标技术栈实现步骤1. 实体类注解配置2. 创建元数据处理器3. 服务层代码优化填充机制详

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函