一行代码实现mysql建表语句格式化成hive建表语句

2024-04-26 19:44

本文主要是介绍一行代码实现mysql建表语句格式化成hive建表语句,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

写这篇文章的目的就是想浅浅记录下日常工作中的小成就

背景

因为我们公司的数据平台在抽数据的时候无法自动生成ODS层hive格式的建表语句,而业务库的一些表字段又非常多,手动+excel修改耗时耗力,于是想通过一个Python脚本自动将mysql格式的建表语句转换成hive格式的。

转换前:

CREATE TABLE `ai_warning_info` (`id` varchar(40) NOT NULL COMMENT '主键',`community_id` varchar(40) NOT NULL DEFAULT '' COMMENT '园区id',`ai_warning_config_id` int(11) NOT NULL COMMENT '预警信息配置表主键id',`warning_status` tinyint(4) NOT NULL DEFAULT '0' COMMENT '预警状态(1:待处理;2:已恢复;3:已处理(后台预警管理操作 直接处理/生成工单,则这条预警信息变成已处理))',`warning_content` varchar(500) NOT NULL DEFAULT '' COMMENT '预警内容',`warning_rank` tinyint(4) NOT NULL DEFAULT '0' COMMENT '预警级别(1:严重;2:重要;3:一般)',`warning_time` datetime DEFAULT NULL COMMENT '预警时间',`intime` datetime DEFAULT NULL COMMENT '写入时间',`update_time` datetime DEFAULT NULL COMMENT '更新时间',`remark` varchar(500) NOT NULL DEFAULT '' COMMENT '说明',`operate_type` tinyint(4) NOT NULL DEFAULT '0' COMMENT '预警处理方式1:直接处理;2:生成工单',`operate_user_id` varchar(45) NOT NULL DEFAULT '' COMMENT '预警信息处理人id',`operate_user_name` varchar(45) NOT NULL DEFAULT '' COMMENT '预警信息处理人name',`operate_time` datetime DEFAULT NULL COMMENT '预警信息处理时间',`order_id` varchar(40) DEFAULT '' COMMENT '工单id',`order_status` tinyint(4) NOT NULL DEFAULT '0' COMMENT '工单状态 0缺省 1待接收 2处理中 3已处理 4已完成 5已关闭 6待处理',`recovery_time` datetime DEFAULT NULL COMMENT '恢复时间',`warning_trigger_id` varchar(45) NOT NULL DEFAULT '' COMMENT '触发预警事件的记录id',`warning_type` tinyint(4) NOT NULL COMMENT '预警事件类型(1离园预警 2车辆违停 3消防通道占用)',`work_order_identity` int(10) DEFAULT NULL COMMENT '新旧工单标识字段 1:老工单,2:新工单',PRIMARY KEY (`id`) USING BTREE,UNIQUE KEY `id_UNIQUE` (`id`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8 ROW_FORMAT=COMPACT COMMENT='ai预警信息';

转换后:

CREATE TABLE IF NOT EXISTS ods_wspace_ai_warning_info_df (id                             STRING COMMENT  '主键',community_id                   STRING COMMENT  ' COMMENT ',ai_warning_config_id           STRING COMMENT  '预警信息配置表主键id',warning_status                 STRING COMMENT  '预警状态(1:待处理;2:已恢复;3:已处理(后台预警管理操作 直接处理/生成工单,则这条预警信息变成已处理))',warning_content                STRING COMMENT  ' COMMENT ',warning_rank                   STRING COMMENT  '预警级别(1:严重;2:重要;3:一般)',warning_time                   STRING COMMENT  '预警时间',intime                         STRING COMMENT  '写入时间',update_time                    STRING COMMENT  '更新时间',remark                         STRING COMMENT  ' COMMENT ',operate_type                   STRING COMMENT  '预警处理方式1:直接处理;2:生成工单',operate_user_id                STRING COMMENT  ' COMMENT ',operate_user_name              STRING COMMENT  ' COMMENT ',operate_time                   STRING COMMENT  '预警信息处理时间',order_id                       STRING COMMENT  ' COMMENT ',order_status                   STRING COMMENT  '工单状态 0缺省 1待接收 2处理中 3已处理 4已完成 5已关闭 6待处理',recovery_time                  STRING COMMENT  '恢复时间',warning_trigger_id             STRING COMMENT  ' COMMENT ',warning_type                   STRING COMMENT  '预警事件类型(1离园预警 2车辆违停 3消防通道占用)',work_order_identity            STRING COMMENT  '新旧工单标识字段 1:老工单,2:新工单'
)
COMMENT 'ai预警信息'
PARTITIONED BY ( ds BIGINT )
STORED AS PARQUET;"

转换脚本是我让我小姐妹写的,她起初发给我的是这样的:

import os
import re
import tracebackimport pandas as pdpattern = r"[`']([^`']+)[`']"
tradition_ = 'COMMENT'
common_part = ' STRING COMMENT 'def modify_row(row):sql_row = row[0]if 'CREATE TABLE' in sql_row:return rowif 'COMMENT=' in sql_row:comment = sql_row.split('COMMENT=')[-1].replace(';', '').replace(' ', '')cut_sql = ')COMMENT ' + comment + ' PARTITIONED BY (As BIGINT) STORED AS PARQUET;'row[0] = cut_sqlreturn rowcut_result = re.findall(pattern, sql_row)if len(cut_result) > 1 and tradition_ in sql_row:cut_sql = cut_result[0] + common_part + f"'{cut_result[-1]}'" + ','row[0] = cut_sqlreturn rowcurrent_dir = os.getcwd()
to_dir = os.path.join(current_dir, "results_dir")
print('current_dir:', current_dir)
print('results_dir:', to_dir)
if not os.path.exists(to_dir):os.mkdir(to_dir)
try:for file in os.listdir(current_dir):if file.endswith(".xlsx") or file.endswith(".xls"):file_path = os.path.join(current_dir, file)to_file_path = os.path.join(to_dir, file)df = pd.read_excel(file_path)df.apply(modify_row, axis=1)df.to_csv(to_file_path, index=False)
except:print(traceback.format_exc())

还给我解释了一下,真的太有爱了,啊哈哈哈哈

不过这个转换完是下面这样:

CREATE TABLE `ai_warning_info` (
id STRING COMMENT '主键',
community_id STRING COMMENT ' COMMENT ',
ai_warning_config_id STRING COMMENT '预警信息配置表主键id',
warning_status STRING COMMENT '预警状态(1:待处理;2:已恢复;3:已处理(后台预警管理操作 直接处理/生成工单,则这条预警信息变成已处理))',
warning_content STRING COMMENT ' COMMENT ',
warning_rank STRING COMMENT '预警级别(1:严重;2:重要;3:一般)',
warning_time STRING COMMENT '预警时间',
intime STRING COMMENT '写入时间',
update_time STRING COMMENT '更新时间',
remark STRING COMMENT ' COMMENT ',
operate_type STRING COMMENT '预警处理方式1:直接处理;2:生成工单',
operate_user_id STRING COMMENT ' COMMENT ',
operate_user_name STRING COMMENT ' COMMENT ',
operate_time STRING COMMENT '预警信息处理时间',
order_id STRING COMMENT ' COMMENT ',
order_status STRING COMMENT '工单状态 0缺省 1待接收 2处理中 3已处理 4已完成 5已关闭 6待处理',
recovery_time STRING COMMENT '恢复时间',
warning_trigger_id STRING COMMENT ' COMMENT ',
warning_type STRING COMMENT '预警事件类型(1离园预警 2车辆违停 3消防通道占用)',
work_order_identity STRING COMMENT '新旧工单标识字段 1:老工单,2:新工单',PRIMARY KEY (`id`) USING BTREE,UNIQUE KEY `id_UNIQUE` (`id`) USING BTREE
)COMMENT 'ai预警信息' PARTITIONED BY (As BIGINT) STORED AS PARQUET;

然而。。。。

行吧 对齐看着也比较舒服

于是和姐妹吐槽,我在手动对齐

最后实在受不了了,改了姐妹的代码

对齐大概思路就是设置一个最大值减去字段长度再乘以空格,就可以对齐啦

顺便按照自己的需求又照猫画虎的改了下

import os
import re
import tracebackimport pandas as pdpattern = r"[`']([^`']+)[`']"
tradition_ = 'COMMENT'
common_part = ' STRING COMMENT '
#定义一个空字符
space=' 'def modify_row(row):sql_row = row[0]if 'CREATE TABLE' in sql_row:table = sql_row.split('`')[1]  # 顺便把ods规范表名也拼好cut_sql = 'CREATE TABLE IF NOT EXISTS ' + 'ods_wspace_'+table.replace(' ','') +'_df ('row[0] = cut_sql return row# 去掉不符合要求的语句行if 'USING BTREE' in sql_row:cut_sql =' 'row[0] = cut_sql return row# 因为公司同步都要求string 就方便很多 直接按字符串类型拼if 'COMMENT=' in sql_row:comment = sql_row.split('COMMENT=')[-1].replace(';', '').replace(' ', '')cut_sql = ')'+'\n'+'COMMENT ' + comment +'\n'+ 'PARTITIONED BY ( ds BIGINT )'+'\n'+'STORED AS PARQUET;'row[0] = cut_sqlreturn rowcut_result = re.findall(pattern, sql_row)# 通过字段长度 对齐语句 cut_len=len(cut_result[0])# print('cut_len:',cut_len)  if len(cut_result) > 1 and tradition_ in sql_row:cut_sql = 5*space+','+cut_result[0] +(30-cut_len)*space+common_part +space+ f"'{cut_result[-1]}'" row[0] = cut_sqlreturn rowcurrent_dir = os.getcwd()
to_dir = os.path.join(current_dir, "results_dir")
print('current_dir:', current_dir)
print('results_dir:', to_dir)
if not os.path.exists(to_dir):os.mkdir(to_dir)
try:for file in os.listdir(current_dir):if file.endswith(".xlsx") or file.endswith(".xls"):file_path = os.path.join(current_dir, file)to_file_path = os.path.join(to_dir, file)df = pd.read_excel(file_path)df.apply(modify_row, axis=1)df.to_csv(to_file_path, index=False)
except:print(traceback.format_exc())

姐妹说用pandas库 可能有bug 但她迟迟不帮我优化 反正我们一致认同能实现功能的代码就是好代码 哈哈哈哈哈 坐等她再帮我换个库写 反正 这段时间不用手敲建表语句了 开心开心

为啥说用一行代码实现呢,因为

命令行。。。 被骗了 我是标题党

后记

时隔一年没有跟新了 确实平常很躺平  工作中除了sql就是sql 很少学新的内容  就没有产出了 希望之后能多多更新文章吧 这篇就是一个好的开端   

by the way 今天是我入职满一年 下班下班 出去嗨喽

这篇关于一行代码实现mysql建表语句格式化成hive建表语句的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/938490

相关文章

SpringBoot集成redisson实现延时队列教程

《SpringBoot集成redisson实现延时队列教程》文章介绍了使用Redisson实现延迟队列的完整步骤,包括依赖导入、Redis配置、工具类封装、业务枚举定义、执行器实现、Bean创建、消费... 目录1、先给项目导入Redisson依赖2、配置redis3、创建 RedissonConfig 配

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF

Nginx部署HTTP/3的实现步骤

《Nginx部署HTTP/3的实现步骤》本文介绍了在Nginx中部署HTTP/3的详细步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录前提条件第一步:安装必要的依赖库第二步:获取并构建 BoringSSL第三步:获取 Nginx

MySQL的JDBC编程详解

《MySQL的JDBC编程详解》:本文主要介绍MySQL的JDBC编程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录前言一、前置知识1. 引入依赖2. 认识 url二、JDBC 操作流程1. JDBC 的写操作2. JDBC 的读操作总结前言本文介绍了mysq

java.sql.SQLTransientConnectionException连接超时异常原因及解决方案

《java.sql.SQLTransientConnectionException连接超时异常原因及解决方案》:本文主要介绍java.sql.SQLTransientConnectionExcep... 目录一、引言二、异常信息分析三、可能的原因3.1 连接池配置不合理3.2 数据库负载过高3.3 连接泄漏

MyBatis Plus实现时间字段自动填充的完整方案

《MyBatisPlus实现时间字段自动填充的完整方案》在日常开发中,我们经常需要记录数据的创建时间和更新时间,传统的做法是在每次插入或更新操作时手动设置这些时间字段,这种方式不仅繁琐,还容易遗漏,... 目录前言解决目标技术栈实现步骤1. 实体类注解配置2. 创建元数据处理器3. 服务层代码优化填充机制详

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函