FunDA(2)- Streaming Data Operation:流式数据操作

2024-04-09 04:58

本文主要是介绍FunDA(2)- Streaming Data Operation:流式数据操作,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

   在上一集的讨论里我们介绍并实现了强类型返回结果行。使用强类型主要的目的是当我们把后端数据库SQL批次操作搬到内存里转变成数据流式按行操作时能更方便、准确、高效地选定数据字段。在上集讨论示范里我们用集合的foreach方式模拟了一个最简单的数据流,并把从数据库里批次读取的数据集转换成一串连续的数据行来逐行使用。一般来说完整的流式数据处理流程包括了从数据库中读取数据、根据读取的每行数据状态再对后台数据库进行更新,包括:插入新数据、更新、删除等。那么在上篇中实现的流式操作基础上再添加一种指令行类型就可以完善整个数据处理流程了,就像下面这个图示:

Database => Query -> Collection => Streaming -> DataRow => QueryAction(DataRow) -> ActionRow => execAction(ActionRow) -> Database

如果我们还是以Slick为目标FRM,那么这个ActionRow的类型就是Slick的DBIO[T]了:

package com.bayakala.funda.rowtypes
import slick.dbio._
object ActionType {type FDAAction[T] = DBIO[T]
}


记得有一次在一个Scala讨论区里遇到这样一个问题:如何把a表里的status字段更新成b表的status字段值,转化成SQL语句如下:

update a,b set a.status=b.status where a.id=b.id


那位哥们的问题是如何用Slick来实现对a表的更新,不能用sql"???" interpolation 直接调用SQL语句,可能因为要求compile time语法check保障吧。这个问题用Slick Query还真的不太容易解决(能不能解决就不想费功夫去想了),这是因为FRM的SQL批次处理弱点。如果用FunDA的流式操作思路就会很容易解决了,只要用join Query把b.status读出来再用b.id=a.id逐个更新a.status。刚好,下面我们就示范通过ActionRow来解决这个问题。先用下面这段代码来设置测试数据:

import slick.dbio.DBIO
import slick.driver.H2Driver.api._import scala.concurrent.duration._
import scala.concurrent.{Await, Future}
import scala.util.{Failure, Success}
import scala.concurrent.ExecutionContext.Implicits.global
import slick.jdbc.meta.MTable
object ActionRowTest extends App {class ATable(tag: Tag) extends Table[(Int,String,Int)](tag,"TA")  {def id = column[Int]("id",O.PrimaryKey)def flds = column[String]("aflds")def status = column[Int]("status")def * = (id,flds,status)}val tableA = TableQuery[ATable]class BTable(tag: Tag) extends Table[(Int,String,Int)](tag,"TB")  {def id = column[Int]("id",O.PrimaryKey)def flds = column[String]("bflds")def status = column[Int]("status")def * = (id,flds,status)}val tableB = TableQuery[BTable]val insertAAction =tableA ++= Seq ((1,"aaa",0),(2,"bbb",3),(3,"ccc",1),(4,"ddd",0),(16,"kkk",16))val insertBAction =tableB ++= Seq ((1,"aaa",1),(2,"bbb",2),(3,"ccc",3),(4,"ddd",4),(5,"kkk",5))val db = Database.forConfig("h2db")def tableExists(tables: Vector[MTable], tblname: String) =tables.exists {t =>t.name.toString.contains(tblname)}def createSchemaIfNotExists(): Future[Unit] = {db.run(MTable.getTables).flatMap {case tables if !tableExists(tables,".TA") && !tableExists(tables,".TB") =>println("Creating schemas for TA and TB...")db.run((tableA.schema ++ tableB.schema).create)case tables if !tableExists(tables,".TA") =>println("Creating schema for TA ...")db.run(tableA.schema.create)case tables if !tableExists(tables,".TB") =>println("Creating schema for TB ...")db.run(tableB.schema.create)case _ =>println("Schema for TA, TB already created.")Future.successful()}}def insertInitialData(): Future[Unit] = {val cleanInsert = DBIO.seq(tableA.delete, tableB.delete,insertAAction,insertBAction)db.run(cleanInsert).andThen {case Success(_) => println("Data insert completed.")case Failure(e) => println(s"Data insert failed [${e.getMessage}]")}}Await.ready(db.run(sql"DROP TABLE TA; DROP TABLE TB".as[String]),Duration.Inf)val initResult = createSchemaIfNotExists().flatMap {_ => insertInitialData()}Await.ready(initResult,Duration.Inf)}

用join query先把这两个表相关的字段值搬到内存转成强类型行FDADataRow:

 val selectAB = for {a <- tableAb <- tableBif (a.id === b.id)} yield (a.id,b.id,a.status,b.status)case class ABRow (id: Int, asts: Int, bsts: Int)def toABRow(raw: (Int,Int,Int,Int)) = ABRow(raw._1,raw._3,raw._4)import com.bayakala.funda.rowtypes.DataRowTypeval loader = FDADataRow(slick.driver.H2Driver, toABRow _)loader.getTypedRows(selectAB.result)(db).foreach {dataRow =>println(s"ID:${dataRow.id} Status A = ${dataRow.asts}, B = ${dataRow.bsts}")}


初始结果如下:

ID:1 Status A = 0, B = 1
ID:2 Status A = 3, B = 2
ID:3 Status A = 1, B = 3
ID:4 Status A = 0, B = 4


现在我们把每条数据行DataRow转成动作行ActionRow。然后把每条DataRow的asts字段值替换成bsts的字段值:

import com.bayakala.funda.rowtypes.ActionType.FDAActiondef updateAStatus(row: ABRow): FDAAction[Int] = {tableA.filter{r => r.id === row.id}.map(_.status).update(row.asts)}loader.getTypedRows(selectAB.result)(db).map(updateAStatus(_)).foreach {actionRow =>println(s"${actionRow.toString}")}


显示结果如下:

slick.driver.JdbcActionComponent$UpdateActionExtensionMethodsImpl$$anon$7@492691d7
slick.driver.JdbcActionComponent$UpdateActionExtensionMethodsImpl$$anon$7@27216cd
slick.driver.JdbcActionComponent$UpdateActionExtensionMethodsImpl$$anon$7@558bdf1f
slick.driver.JdbcActionComponent$UpdateActionExtensionMethodsImpl$$anon$7@8576fa0

现在每条DataRow已经被转化成jdbc action类型了。

下一步我们只需要运行这些ActionRow就可以完成任务了:

  def execAction(act: FDAAction[Int]) = db.run(act)loader.getTypedRows(selectAB.result)(db).map(updateAStatus(_)).map(execAction(_))


现在再看看数据库中的TA表状态:

  loader.getTypedRows(selectAB.result)(db).foreach {dataRow =>println(s"ID:${dataRow.id} Status A = ${dataRow.asts}, B = ${dataRow.bsts}")}结果:
ID:1 Status A = 1, B = 1
ID:2 Status A = 2, B = 2
ID:3 Status A = 3, B = 3
ID:4 Status A = 4, B = 4


我们看到已经正确更新了TA的status字段值。

在这个示范中明显有很多不足之处:如果a.status=b.status应该省略更新步骤。这是因为foreach只能模拟最基本的数据流动。如果我们使用了具备强大功能的Stream工具库如scalaz-stream-fs2,就可以更好控制数据元素的流动。更重要的是scalaz-stream-fs2支持并行运算,那么上面所描述的流程:

Database => Query -> Collection => Streaming -> DataRow => QueryAction(DataRow) -> ActionRow => execAction(ActionRow) -> Database


几个 => 环节:Query、Streaming、QueryAction、execAction将可以并行运算,从而实现充分利用多核CPU硬件资源,提高运算效率的目的。

下面是这次讨论涉及的源代码:

package com.bayakala.funda.rowtypesimport scala.concurrent.duration._
import scala.concurrent.Await
import slick.driver.JdbcProfileobject DataRowType {class FDADataRow[SOURCE, TARGET](slickProfile: JdbcProfile,convert: SOURCE  => TARGET){import slickProfile.api._def getTypedRows(slickAction: DBIO[Iterable[SOURCE]])(slickDB: Database): Iterable[TARGET] =Await.result(slickDB.run(slickAction), Duration.Inf).map(raw => convert(raw))}object FDADataRow {def apply[SOURCE, TARGET](slickProfile: JdbcProfile, converter: SOURCE => TARGET): FDADataRow[SOURCE, TARGET] =new FDADataRow[SOURCE, TARGET](slickProfile, converter)}}

package com.bayakala.funda.rowtypes
import slick.dbio._
object ActionType {type FDAAction[T] = DBIO[T]
}

import slick.dbio.DBIO
import slick.driver.H2Driver.api._import scala.concurrent.duration._
import scala.concurrent.{Await, Future}
import scala.util.{Failure, Success}
import scala.concurrent.ExecutionContext.Implicits.global
import slick.jdbc.meta.MTable
object ActionRowTest extends App {class ATable(tag: Tag) extends Table[(Int,String,Int)](tag,"TA")  {def id = column[Int]("id",O.PrimaryKey)def flds = column[String]("aflds")def status = column[Int]("status")def * = (id,flds,status)}val tableA = TableQuery[ATable]class BTable(tag: Tag) extends Table[(Int,String,Int)](tag,"TB")  {def id = column[Int]("id",O.PrimaryKey)def flds = column[String]("bflds")def status = column[Int]("status")def * = (id,flds,status)}val tableB = TableQuery[BTable]val insertAAction =tableA ++= Seq ((1,"aaa",0),(2,"bbb",3),(3,"ccc",1),(4,"ddd",0),(16,"kkk",16))val insertBAction =tableB ++= Seq ((1,"aaa",1),(2,"bbb",2),(3,"ccc",3),(4,"ddd",4),(5,"kkk",5))val db = Database.forConfig("h2db")def tableExists(tables: Vector[MTable], tblname: String) =tables.exists {t =>t.name.toString.contains(tblname)}def createSchemaIfNotExists(): Future[Unit] = {db.run(MTable.getTables).flatMap {case tables if !tableExists(tables,".TA") && !tableExists(tables,".TB") =>println("Creating schemas for TA and TB...")db.run((tableA.schema ++ tableB.schema).create)case tables if !tableExists(tables,".TA") =>println("Creating schema for TA ...")db.run(tableA.schema.create)case tables if !tableExists(tables,".TB") =>println("Creating schema for TB ...")db.run(tableB.schema.create)case _ =>println("Schema for TA, TB already created.")Future.successful()}}def insertInitialData(): Future[Unit] = {val cleanInsert = DBIO.seq(tableA.delete, tableB.delete,insertAAction,insertBAction)db.run(cleanInsert).andThen {case Success(_) => println("Data insert completed.")case Failure(e) => println(s"Data insert failed [${e.getMessage}]")}}Await.ready(db.run(sql"DROP TABLE TA; DROP TABLE TB".as[String]),Duration.Inf)val initResult = createSchemaIfNotExists().flatMap {_ => insertInitialData()}Await.ready(initResult,Duration.Inf)val selectAB = for {a <- tableAb <- tableBif (a.id === b.id)} yield (a.id,b.id,a.status,b.status)case class ABRow (id: Int, asts: Int, bsts: Int)def toABRow(raw: (Int,Int,Int,Int)) = ABRow(raw._1,raw._3,raw._4)import com.bayakala.funda.rowtypes.DataRowType.FDADataRowval loader = FDADataRow(slick.driver.H2Driver, toABRow _)loader.getTypedRows(selectAB.result)(db).foreach {dataRow =>println(s"ID:${dataRow.id} Status A = ${dataRow.asts}, B = ${dataRow.bsts}")}import com.bayakala.funda.rowtypes.ActionType.FDAActiondef updateAStatus(row: ABRow): FDAAction[Int] = {tableA.filter{r => r.id === row.id}.map(_.status).update(row.bsts)}loader.getTypedRows(selectAB.result)(db).map(updateAStatus(_)).foreach {actionRow =>println(s"${actionRow.toString}")}def execAction(act: FDAAction[Int]) = db.run(act)loader.getTypedRows(selectAB.result)(db).map(updateAStatus(_)).map(execAction(_))loader.getTypedRows(selectAB.result)(db).foreach {dataRow =>println(s"ID:${dataRow.id} Status A = ${dataRow.asts}, B = ${dataRow.bsts}")}}



 




这篇关于FunDA(2)- Streaming Data Operation:流式数据操作的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/887231

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

Java实现在Word文档中添加文本水印和图片水印的操作指南

《Java实现在Word文档中添加文本水印和图片水印的操作指南》在当今数字时代,文档的自动化处理与安全防护变得尤为重要,无论是为了保护版权、推广品牌,还是为了在文档中加入特定的标识,为Word文档添加... 目录引言Spire.Doc for Java:高效Word文档处理的利器代码实战:使用Java为Wo

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

GSON框架下将百度天气JSON数据转JavaBean

《GSON框架下将百度天气JSON数据转JavaBean》这篇文章主要为大家详细介绍了如何在GSON框架下实现将百度天气JSON数据转JavaBean,文中的示例代码讲解详细,感兴趣的小伙伴可以了解下... 目录前言一、百度天气jsON1、请求参数2、返回参数3、属性映射二、GSON属性映射实战1、类对象映

sysmain服务可以禁用吗? 电脑sysmain服务关闭后的影响与操作指南

《sysmain服务可以禁用吗?电脑sysmain服务关闭后的影响与操作指南》在Windows系统中,SysMain服务(原名Superfetch)作为一个旨在提升系统性能的关键组件,一直备受用户关... 在使用 Windows 系统时,有时候真有点像在「开盲盒」。全新安装系统后的「默认设置」,往往并不尽编

Python自动化处理PDF文档的操作完整指南

《Python自动化处理PDF文档的操作完整指南》在办公自动化中,PDF文档处理是一项常见需求,本文将介绍如何使用Python实现PDF文档的自动化处理,感兴趣的小伙伴可以跟随小编一起学习一下... 目录使用pymupdf读写PDF文件基本概念安装pymupdf提取文本内容提取图像添加水印使用pdfplum

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则