惊恐!数据硬删除了?那怎么恢复?

2024-08-29 05:36

本文主要是介绍惊恐!数据硬删除了?那怎么恢复?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

深更半夜,疲劳开发,半迷糊状态,在管理后台,点击了删除按钮,等反应过来,瞬间清醒了,傻了。
还是记录一下,解决过程吧,目的不是防止下次不在误删,目的是删除之后,不在熬夜恢复数据。
数据库版本:Mysql 8

开启二进制日志

前提是数据库需要开启日志,登录数据库,输入以下命令查看:

mysql> SHOW VARIABLES LIKE 'log_bin';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| log_bin       | ON    |
+---------------+-------+

如果返回一个结果集,其中包含Variable_name和Value两列。如果Value列的值为ON,或者显示了一个具体的二进制日志文件的路径,那么说明二进制日志已经开启。如果Value列的值为OFF,则表示二进制日志当前是关闭的。

确认日志文件

检查当前可用的日志文件列表,使用如下命令:

mysql> SHOW BINARY LOGS;

输出

+------------------+-----------+-----------+
| Log_name         | File_size | Encrypted |
+------------------+-----------+-----------+
| mysql-bin.000010 |   1153036 | No        |
| mysql-bin.000011 | 198938135 | No        |
+------------------+-----------+-----------+

最后一个mysql-bin.000011,就是删除操作所在日志文件,也不一定,看你删除操作影响的数据多不多,影响多了,可能就垮日志文件了。

日志所在路径

看看配置文件,比如/etc/my.cnf,配置的日志路径是哪儿,

# 设置mysql数据库的数据的存放⽬录
datadir=/usr/local/mysql8/data

这样就可以确定,二进制日志文件所在具体路径

/usr/local/mysql8/data/mysql-bin.000011

确认时间

mysql-bin.000011日志文件中记录了很多操作数据库的日志,要恢复数据,最好的得有个时间范围,可以看输出的log文件去确认,也可以根据自己的记录的日志表去确认,比如我是从2024-07-26 22:21:00开始删除数据,最后删除操作是在2024-07-26 22:23:58。

裁剪二进制日志

使用mysqlbinlog工具,可以输出日志内容,在控制台查看二进制日志,我的目的是要把一个大的日志文件,根据时间裁剪成一个小的二进制日志文件,使用下面的命令:

mysqlbinlog --verbose --start-datetime='2024-07-26 22:21:00' --stop-datetime='2024-07-26 22:23:58' /usr/local/mysql8/data/mysql-bin.000011 > delete_statements.sql

mysqlbinlog --verbose 是一个命令行选项,用于使 mysqlbinlog 工具以更详细的模式运行。当使用 --verbose 选项时,mysqlbinlog 会提供更多的信息输出,包括但不限于:

  • 额外的日志元数据:例如日志文件的起始和结束位置、服务器ID、校验和、事务ID等。
  • 事务的开始和结束标记:这有助于跟踪事务的边界。
  • SQL 语句的详细信息:如 BEGIN 和 COMMIT 语句,以及每条 SQL 语句的执行时间。

执行完成之后,裁剪的日志文件内容输出到delete_statements.sql文件中,直接可以用文本编辑器打开,搜索一下关键字DELETE FROM,看到这样的内容

'/*!*/;
### DELETE FROM `bu_tcket`.`sys_menu`
### WHERE
###   @1=2023
###   @2='任务修改'
###   @3=2020
###   @4=3
###   @5='#'
###   @6=''
###   @7=NULL
###   @8=1
###   @9=0
###   @10='F'
###   @11='0'
###   @12='0'
###   @13='bali:task:edit'
###   @14='#'
###   @15='admin'
###   @16='2022-12-03 18:35:15'
###   @17=''
###   @18=NULL
###   @19=''
# at 241030

这就是我删除的内容,清晰看到删除的库名,表名,以及删除哪条记录。@1表示一条记录的第一个字段,@2表示一条记录的第二个字段,等号后面就是这个字段的对应的值

恢复吧,一个一个复制粘贴出来,手动拼接insert语句,再到数据库里执行一遍,这样就可以恢复之前删除的数据了,

这样操作数据量少还行,删除的数据量多了,那就很费时了,写一段python代码,自动解析文件,生成所有的insert语句,岂不美哉!

解析日志文件

提高效率,让AI帮我写一段解析日志文件的python代码,把上面的日志文件内容,提起一段出来,喂给AI,告诉它,我要干什么,AI给出的结果,执行报错,不过没关系,我手动改动一下,就行了。

def parse_delete_statements(file_path):insert_statements = []with open(file_path, 'r') as file:lines = file.readlines()# Initialize variablesdelete_data = {}inside_delete = False# Parse the file line by linefor line in lines:if line.startswith('### DELETE FROM `bu_tcket`.`sys_menu`'):inside_delete = Truedelete_data.clear()if inside_delete:if line.startswith('### WHERE'):continueif line.startswith('###   @'):key, value = line.strip().split('=')delete_data[key[1:].strip()] = value.strip()if line.startswith('# at'):# Generate the INSERT statement when a DELETE statement ends# Extract the table name from the first DELETE linetable_name = 'sys_menu'  # Assuming the DELETE statement always targets `sys_menu` in `bu_tcket`columns = [f"`{key}`" for key in delete_data.keys()]values = [f"{value}" if value != 'NULL' else 'NULL' for value in delete_data.values()]# Construct the INSERT statementinsert_statement = f"INSERT INTO `{table_name}` VALUES ({', '.join(values)});"insert_statements.append(insert_statement)inside_delete = Falsereturn insert_statements# File path where the DELETE statements are stored
file_path = '/Users/***/Downloads/delete_statements.sql'# Call the function and print the results
insert_statements = parse_delete_statements(file_path)
for insert_statement in insert_statements:print(insert_statement)

执行一下,生成结果:

INSERT INTO `sys_menu` VALUES (2016, '观人管理新增', 2014, 2, '#', '', NULL, 1, 0, 'F', '0', '0', 'bali:viewer:add', '#', 'admin', '2022-12-01 13:16:09', '', NULL, '');
INSERT INTO `sys_menu` VALUES (2017, '观人管理修改', 2014, 3, '#', '', NULL, 1, 0, 'F', '0', '0', 'bali:viewer:edit', '#', 'admin', '2022-12-01 13:16:10', '', NULL, '');

OK,记得,不要疲劳开发!

这篇关于惊恐!数据硬删除了?那怎么恢复?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1116983

相关文章

使用Python开发一个Ditto剪贴板数据导出工具

《使用Python开发一个Ditto剪贴板数据导出工具》在日常工作中,我们经常需要处理大量的剪贴板数据,下面将介绍如何使用Python的wxPython库开发一个图形化工具,实现从Ditto数据库中读... 目录前言运行结果项目需求分析技术选型核心功能实现1. Ditto数据库结构分析2. 数据库自动定位3

pandas数据的合并concat()和merge()方式

《pandas数据的合并concat()和merge()方式》Pandas中concat沿轴合并数据框(行或列),merge基于键连接(内/外/左/右),concat用于纵向或横向拼接,merge用于... 目录concat() 轴向连接合并(1) join='outer',axis=0(2)join='o

批量导入txt数据到的redis过程

《批量导入txt数据到的redis过程》用户通过将Redis命令逐行写入txt文件,利用管道模式运行客户端,成功执行批量删除以Product*匹配的Key操作,提高了数据清理效率... 目录批量导入txt数据到Redisjs把redis命令按一条 一行写到txt中管道命令运行redis客户端成功了批量删除k

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

C#监听txt文档获取新数据方式

《C#监听txt文档获取新数据方式》文章介绍通过监听txt文件获取最新数据,并实现开机自启动、禁用窗口关闭按钮、阻止Ctrl+C中断及防止程序退出等功能,代码整合于主函数中,供参考学习... 目录前言一、监听txt文档增加数据二、其他功能1. 设置开机自启动2. 禁止控制台窗口关闭按钮3. 阻止Ctrl +

java如何实现高并发场景下三级缓存的数据一致性

《java如何实现高并发场景下三级缓存的数据一致性》这篇文章主要为大家详细介绍了java如何实现高并发场景下三级缓存的数据一致性,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 下面代码是一个使用Java和Redisson实现的三级缓存服务,主要功能包括:1.缓存结构:本地缓存:使

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分

C#解析JSON数据全攻略指南

《C#解析JSON数据全攻略指南》这篇文章主要为大家详细介绍了使用C#解析JSON数据全攻略指南,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、为什么jsON是C#开发必修课?二、四步搞定网络JSON数据1. 获取数据 - HttpClient最佳实践2. 动态解析 - 快速

MySQL逻辑删除与唯一索引冲突解决方案

《MySQL逻辑删除与唯一索引冲突解决方案》本文探讨MySQL逻辑删除与唯一索引冲突问题,提出四种解决方案:复合索引+时间戳、修改唯一字段、历史表、业务层校验,推荐方案1和方案3,适用于不同场景,感兴... 目录问题背景问题复现解决方案解决方案1.复合唯一索引 + 时间戳删除字段解决方案2:删除后修改唯一字