Python psycopg2使用SimpleConnectionPool数据库连接池以及execute_batch批量插入数据

本文主要是介绍Python psycopg2使用SimpleConnectionPool数据库连接池以及execute_batch批量插入数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

有关快速插入大量数据到数据库的一个比较好的博文如下:Fastest Way to Load Data Into PostgreSQL Using Python 其中文末还有提到几种不同方式的对比,效率十分的震撼,可以看看

1. 连接池和批量插入示例代码如下

import psycopg2
import psycopg2.extras
from psycopg2.pool import SimpleConnectionPool
from contextlib import contextmanager# 连接池初始化
postgresql_conn_pool = SimpleConnectionPool(5, 200,host=DATABASE_HOST,port=DATABASE_PORT,user=DATABASE_USERNAME,password=DATABASE_PASSWORD,database=DATABASE_NAME)@contextmanager
def get_cursor():con = postgresql_conn_pool.getconn()# 默认就自动提交con.autocommit = Truetry:yield con.cursor()# 或设置手动提交 con.commit()finally:# 用完放回连接池self.postgresql_conn_pool.putconn(con)def save_data(dict_list):"""dict_list = [{"name":"lucy", "address":"shanghai"},{"name":"mike", "address":"beijing"}]"""with get_cursor() as cursor:# 批量插入psycopg2.extras.execute_batch(cursor, """INSERT INTO user(name,address) VALUES(%(name)s, %(address)s)""", dict_list)

2.使用时需要注意的问题

  • 不需要再使用executemany了,该方法的性能没有execute_batch好,还有更快的则是copy from
  • SimpleConnectionPool只支持单线程,如果是多线程使用线程池,请使用psycopg2.pool.ThreadedConnectionPool,参考官方链接如下psycopg2.pool - Connections pooling

3. 为什么批量就是快?

从我自己测试时,插入数据来说话,业务场景是,一条数据要保存到三张表里面,具体代码实现就不展示了。
相关数据如下:

  • 每秒钟74条数据
  • 批量,500条一次耗时大约在0.33s左右,即6.7s后才执行一次存储,(6.7 + 0.33) / 500 = 0.014s一条
  • 不批量,一次insert单条耗时约0.048s,500 x 0.048 = 24s

那毫无疑问,批量就是快

4. 批量时的n条数据作为一个批次,n取何值效率最高?

假设如下:

  • 每秒钟p条数据
  • 批量情况下,n条数据耗时a秒
  • 不批量,一次insert单条耗时约q秒

请问n值,如何效率最好?总而言之
n = 200, a = 0.126799, a/n = 0.00063
n = 500, a = 0.33, a/n = 0.00066
n = 1000, a=0.35, a/n = 0.00035

这篇关于Python psycopg2使用SimpleConnectionPool数据库连接池以及execute_batch批量插入数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/908434

相关文章

shell脚本批量导出redis key-value方式

《shell脚本批量导出rediskey-value方式》为避免keys全量扫描导致Redis卡顿,可先通过dump.rdb备份文件在本地恢复,再使用scan命令渐进导出key-value,通过CN... 目录1 背景2 详细步骤2.1 本地docker启动Redis2.2 shell批量导出脚本3 附录总

Django开发时如何避免频繁发送短信验证码(python图文代码)

《Django开发时如何避免频繁发送短信验证码(python图文代码)》Django开发时,为防止频繁发送验证码,后端需用Redis限制请求频率,结合管道技术提升效率,通过生产者消费者模式解耦业务逻辑... 目录避免频繁发送 验证码1. www.chinasem.cn避免频繁发送 验证码逻辑分析2. 避免频繁

批量导入txt数据到的redis过程

《批量导入txt数据到的redis过程》用户通过将Redis命令逐行写入txt文件,利用管道模式运行客户端,成功执行批量删除以Product*匹配的Key操作,提高了数据清理效率... 目录批量导入txt数据到Redisjs把redis命令按一条 一行写到txt中管道命令运行redis客户端成功了批量删除k

Java使用Thumbnailator库实现图片处理与压缩功能

《Java使用Thumbnailator库实现图片处理与压缩功能》Thumbnailator是高性能Java图像处理库,支持缩放、旋转、水印添加、裁剪及格式转换,提供易用API和性能优化,适合Web应... 目录1. 图片处理库Thumbnailator介绍2. 基本和指定大小图片缩放功能2.1 图片缩放的

精选20个好玩又实用的的Python实战项目(有图文代码)

《精选20个好玩又实用的的Python实战项目(有图文代码)》文章介绍了20个实用Python项目,涵盖游戏开发、工具应用、图像处理、机器学习等,使用Tkinter、PIL、OpenCV、Kivy等库... 目录① 猜字游戏② 闹钟③ 骰子模拟器④ 二维码⑤ 语言检测⑥ 加密和解密⑦ URL缩短⑧ 音乐播放

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

Python pandas库自学超详细教程

《Pythonpandas库自学超详细教程》文章介绍了Pandas库的基本功能、安装方法及核心操作,涵盖数据导入(CSV/Excel等)、数据结构(Series、DataFrame)、数据清洗、转换... 目录一、什么是Pandas库(1)、Pandas 应用(2)、Pandas 功能(3)、数据结构二、安

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

Python安装Pandas库的两种方法

《Python安装Pandas库的两种方法》本文介绍了三种安装PythonPandas库的方法,通过cmd命令行安装并解决版本冲突,手动下载whl文件安装,更换国内镜像源加速下载,最后建议用pipli... 目录方法一:cmd命令行执行pip install pandas方法二:找到pandas下载库,然后

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比