JDBC PreparedStatement 批量查询 in 的实现 方案

2024-02-11 18:18

本文主要是介绍JDBC PreparedStatement 批量查询 in 的实现 方案,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


    我们经常会有这种业务需求,根据一个条件集合去查询一张表的数据,比如:
select  *  from  all_element t  where  t.task_id  in  ( List  <taskids>);
    在java语言中,我们需要用到JDBC来和数据库打交道,那么在JDBC中该如何处理这种需求呢?我们可以有如下几种处理方式

方案一:写一个函数把参数集合转换成一个or 条件 或 in 条件的字符串,最后拼成一个sql

select  *  from  all_element t  where  t.task_id  in  ( 123  , 456 ,  789 );
或者是:
select   from  all_element t  where  t.task_id=123 or  t.task_id=   456  t.task_id=  789 ;

    但是这样效率如何呢?我们知道Oracle对传过来的SQL是需要事先编译的,不过是Oracle有个缓存功能可以缓存编译好的SQL,但前提是传过来的SQL必须完全一致,很明显,如果按照以上方式的话,一旦taskid值变化,那么Oracle的缓存便无法利用。

方案二:使用预编译的PrepareStatement

    为了解决Oracle缓存无法利用问题,Jdbc提供了预编译的 PrepareStatement,对于变化的参数可以用占位符 < ?>  来代替,因此我们可以用占位符来减少Oracle编译次数。
          private   static   final  String QUERY =  "select * from all_element where taskId = ?" ;
          ps = con .prepareStatement(QUERY);
           for (String taskId : taskIds){
             ps.setInt(1, taskId);
             rs = ps .executeQuery();
          }
    这样做虽然可以很好的利用Oracle的缓存,但缺点也很明显,就是每一个Id都需要查询数据库一次,这样效率是极低的。

方案三:动态地创建PrepareStatement

    虽然变化的参数可以用占位符 < ?>  来代替 ,然而遗憾的是Jdbc只提供了单一占位符功能即占位符不能是一个可迭代的集合。因此,对于我们传过来的集合参数,我们可以动态地创建一个 PrepareStatement

    拼一个和集合大小相等数量占位符的SQL,再写一个循环来赋值每一个占位符,这样就可以解决taskId的值变化而导致Oracle重新编译SQL问题。
      private   static   void   createQuery(List<String> taskIds) {
          String query =  "select * from all_element t where t.task_id in (" ;
          StringBuilder queryBuilder =  new  StringBuilder(query);
            for  (  int  i = 0; i < taskIds.size(); i++) {
              queryBuilder.append(  " ?" );
                if  (i != taskIds.size() - 1)
                   queryBuilder.append(  "," );
          }
          queryBuilder.append(  ")" );
           ps = con .prepareStatement(query);
            for  (  int  i = 1; i <= taskIds.size(); i++) {
               ps.setInt(i, taskIds.get(i - 1));
          }
           rs = ps .executeQuery();
     }
    但是这么做还是存在一个问题,如果集合的值变化不会导致Oracle重新编译,但是如果集合的大小发生变化,相对应的SQL也就发生了变化,同样也会导致Oracle重新编译,那么该如何解决这个问题呢?

方案四:批量查询(减少查询次数并利用到Oracle缓存)

    批量查询兼顾了第二、第三种方案,其思想是预先定义好几个每次要查询参数的个数,然后把参数集合按这些定义好的值划分成小组。比如我们的前台传过来一个数量为75的taskId的集合,我预定义的批量查询参数的个数分别为:
     SINGLE_BATCH  = 1; //注意:为了把参数集合完整划分,这个值为1的批量数是必须的
     SMALL_BATCH  = 4;
     MEDIUM_BATCH  = 11;
     LARGE_BATCH  = 51;

    那么我们第一次会查询51条数据,还剩下24个没有查询,那么第二次批量查询11条数据,还剩下13条未查询,第三次再批量查询11条数据,最后还剩2条未查询,那么我们再分两批次,每批次仅查询一条,这样,最终一个75条的数据分5批次即可查询完成,减少了查询次数,而且还利用到了数据库缓存。附获取批量的算法:
      public   static   final   int   SINGLE_BATCH  = 1;   //注意:为了把参数集合完整划分,这个值为1的批量数是必须的
       public   static   final   int   SMALL_BATCH  = 4;
       public   static   final   int   MEDIUM_BATCH  = 11;
       public   static   final   int   LARGE_BATCH  = 51;
       static   int   totalNumberOfValuesLeftToBatch =75;
       public   static  List<Integer>  getBatchSize(  int  totalNumberOfValuesLeftToBatch){
          List<Integer> batches=  new  ArrayList<Integer>();
            while  ( totalNumberOfValuesLeftToBatch > 0 ) {
                int  batchSize =  SINGLE_BATCH ;
                if  ( totalNumberOfValuesLeftToBatch >=  LARGE_BATCH  ) {
                batchSize =  LARGE_BATCH ;
              }  else   if  ( totalNumberOfValuesLeftToBatch >=  MEDIUM_BATCH  ) {
                batchSize =  MEDIUM_BATCH ;
              }  else   if  ( totalNumberOfValuesLeftToBatch >=  SMALL_BATCH  ) {
                batchSize =  SMALL_BATCH ;
              }
              batches.add(batchSize);
              totalNumberOfValuesLeftToBatch -= batchSize;
              System.  out .println(batchSize);
          }
            return  batches;
     }







这篇关于JDBC PreparedStatement 批量查询 in 的实现 方案的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/700490

相关文章

SpringBoot集成redisson实现延时队列教程

《SpringBoot集成redisson实现延时队列教程》文章介绍了使用Redisson实现延迟队列的完整步骤,包括依赖导入、Redis配置、工具类封装、业务枚举定义、执行器实现、Bean创建、消费... 目录1、先给项目导入Redisson依赖2、配置redis3、创建 RedissonConfig 配

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

MyBatis分页查询实战案例完整流程

《MyBatis分页查询实战案例完整流程》MyBatis是一个强大的Java持久层框架,支持自定义SQL和高级映射,本案例以员工工资信息管理为例,详细讲解如何在IDEA中使用MyBatis结合Page... 目录1. MyBATis框架简介2. 分页查询原理与应用场景2.1 分页查询的基本原理2.1.1 分

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF

Nginx部署HTTP/3的实现步骤

《Nginx部署HTTP/3的实现步骤》本文介绍了在Nginx中部署HTTP/3的详细步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录前提条件第一步:安装必要的依赖库第二步:获取并构建 BoringSSL第三步:获取 Nginx

MySQL的JDBC编程详解

《MySQL的JDBC编程详解》:本文主要介绍MySQL的JDBC编程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录前言一、前置知识1. 引入依赖2. 认识 url二、JDBC 操作流程1. JDBC 的写操作2. JDBC 的读操作总结前言本文介绍了mysq

MyBatis Plus实现时间字段自动填充的完整方案

《MyBatisPlus实现时间字段自动填充的完整方案》在日常开发中,我们经常需要记录数据的创建时间和更新时间,传统的做法是在每次插入或更新操作时手动设置这些时间字段,这种方式不仅繁琐,还容易遗漏,... 目录前言解决目标技术栈实现步骤1. 实体类注解配置2. 创建元数据处理器3. 服务层代码优化填充机制详