绝了!一个妹子 rm -rf 把公司整个数据库删没了...

源码共读

共 1889字,需浏览 4分钟

 ·

2020-08-21 18:15

Python实战社群

Java实战社群

长按识别下方二维码,按需求添加

扫码关注添加客服

进Python社群▲

扫码关注添加客服

进Java社群


作者丨zhouyu

链接:cnblogs.com/zhouyu629/p/3734494.html

经历了两天不懈努力,终于恢复了一次误操作删除的生产服务器数据。

对本次事故过程和解决办法记录在此,警醒自己,也提示别人莫犯此错。

也希望遇到问题的朋友能找到一丝灵感解决问题。

01

事故背景

安排一个妹子在一台生产服务器上安装 Oracle,妹子边研究边安装,感觉装的不对,准备卸载重新安装。

从网上找到卸载方法,其中要执行一行命令删除 Oracle 的安装目录,命令如下:

rm -rf $ORACLE_BASE/*  

如果 ORACLE_BASE 这个变量没有赋值,那命令就变成了:

rm -rf /*  

等等,妹子使用的可是 Root 账户啊。就这样,把整个盘的文件全部删除了,包括应用 Tomcat、MySQL 数据库 and so on……

MySQL 数据库不是在运行吗?Linux 能删除正在执行的文件?反正是彻底删除了,最后还剩一个 Tomcat 的 Log 文件,估计是文件过大,一时没有删除成功。


看着妹子自责的眼神,又是因为这事是我安排她做的,也没有跟她讲清厉害关系,没有任何培训,责任只能一个人背了,况且怎么能让美女背负这个责任呢?

打电话到机房,将盘挂到另一台服务器上,SSH 上去查看文件全部被清,这台服务器运行的可是一个客户的生产系统啊,已经运行大半年了,得尽快恢复啊。


于是找来脱机备份的数据库,发现备份文件只有 1KB,里面只有几行熟悉的 mysqldump 注释(难道是 Crontab 执行的备份脚本有问题),最接近的备份也是 2013 年 12 月份的了,真是屋漏偏逢连夜雨啊。


想起来一位领导说过的案例:当一个生产系统挂掉以后,发现所有备份都有问题,刻录的光盘也有划痕,磁带机也坏了(一个业界前辈,估计以前还用光盘做备份了),没想到今天真的应验到我的身上了,怎么办?

部门领导知道情况后,已经做了最坏的 B 计划:领导亲自带队和产品 AA 周日赶到客户所在的地市,星期一去领导层沟通;BB 和 CC 去客户管理员那边想办法说服客户……

02

救命稻草:ext3grep

赶快到网上去查资料进行误删数据恢复,还真找到一款 ext3grep 能够恢复通过 rm -rf 删除的文件,我们磁盘也是 ext3 格式,且网上有不少的成功案例。

于是燃起了一丝希望,赶快对盘 umount,防止重新写入补删文件扇区。下载 ext3grep,安装(编译安装过程艰辛暂且不表)。

先执行扫描文件名命令:

ext3grep /dev/vgdata/LogVol00 --dump-names  

打印出了所有被删除文件及路径,心中狂喜,不用执行 B 计划了,文件都在呢。

这款软件不能按目录恢复文件,只能执行恢复全部命令:

ext3grep /dev/vgdata/LogVol00 --restore-all  

结果当前盘空间不足,没办法只能恢复文件,尝试了几个文件,居然部分成功部分失败:

ext3grep /dev/vgdata/LogVol00 --restore-file var/lib/mysql/aqsh/tb\_b\_attench.MYD  

心里不禁一凉,难道是删除磁盘上被写过文件了?恢复机率不大了啊,能恢复几个算几个吧,说不定重要数据文件刚好在能恢复的 MYD 文件中。

于是先将所有文件名重定向到一个文件文件中:

ext3grep /dev/vgdata/LogVol00 --dump-names >/usr/allnames.txt  

过滤出来所有 MySQL 数据库的文件名存成 mysqltbname.txt。

编写脚本恢复文件:

while read LINE  
do  
    echo "begin to restore file " $LINE  
    ext3grep /dev/vgdata/LogVol00 --restore-file $LINE  
    if \[ $? != 0 \]  
    then  
        echo "restore failed, exit"  
    fi  
done < ./mysqltbname.txt  

执行,大概运行了 20 分钟,恢复了 40 多个文件,但不够啊,我们将近 100 张表,每张表 frm,myd,myi 三个文件,怎么说也有 300 多个左右啊!

将找回来的文件附到现有数据库上,更要文件权限为 777 后,重启 MySQL,也算是找回一部分数据了,但客户重要的考勤签到数据、手机端上报数据(据说客户按这些数据做员工绩效的)还没找回来啊。

咋办?中间又试了另一款工具 extundelete,跟 ext3grep 语法基本一致,原理应该也一样了,但是据说能按目录恢复。

好吧,试一试:

extundelete /dev/vgdata/LogVol00 --restore-directory var/lib/mysql/aqsh  

果然不出所料,恢复不出来!!!!!!!!那些文件已被破坏了。跟领导汇报,执行 B 计划吧……无奈之下下班回家。(周末了,回去休息一下,想想办法吧)

03

灵机一动:Binlog

第二天早晨一早就醒了(心里有事啊),背上电脑,去公司(这个周末算是报销了,不挨批,通报,罚款,开除就不错了,还过什么周末啊)。

依旧运行 ext3grep,extundelete,也就那几招啊,把系统架到测试服务器上,看看数据能不能想办法补一补吧。


在测试服务器上进行 mysqldump,恢复文件,覆盖恢复回来的文件,给文件加权限,重启 MySQL。

Wait,Wait,不是有 Binlog 吗?我们服务都要求开启 Binlog,说不定能通过 Binlog 里恢复数据呢?


于是从 Dump 出来的文件名里找到 Binlog 的文件,一共三个:

  • mysql-binlog0001

  • mysql-bin.000009

  • mysql-bin.000010

恢复一下 0001:

ext3grep /dev/vgdata/LogVol00 --restore-file var/lib/mysql/mysql-bin.000001  

居然失败了……再看另两个文件,mysql-bin.000010 大概几百 MB,应该靠谱一点,执行还原命令,居然成功了!

赶快 SCP 到测试服务器。执行 Binlog 还原:

mysqlbinlog /usr/mysql-bin.000010 | mysql -uroot -p  

输入密码,卡住了(好现象),经过漫长的等待,终于结束了。打开应用,哦,感谢 CCTV,MTV,数据回来了!

04

后记

也希望谨记此次事故,以后不再犯同样的错误。事故反思如下:

  • 本次安排 MM 进行服务器维护时没有提前对她进行说明厉害情况,自己也未重视,管理混乱,流程混乱。一个在线的生产系统,任何一个改动一定要先谋而后动。

  • 自动备份出现问题,没有任何人检查。脱机备份人员每次从服务器上下载 1K 的文件却从未重视。需要明确大家在工作岗位上的责任。

  • 事故发生后,没有及时发现,造成部分数据写入磁盘,造成不可恢复问题。需要编写应用监控程序,服务一旦有异常,短信告警相关责任人。

  • 根据评论提醒,再加一条:不能使用 Root 用户来操作。应该在服务器上开设不同权限级别的用户。


通过本次事故

分享下本文所用到的工具链接:

1.https://code.google.com/p/ext3grep/

2.http://extundelete.sourceforge.net/

功能跟 ext3grep 差不多,原理应该也差不多。编译安装依赖包比较多,可以到网上搜索如何安装。【可惜的是作者给出的 howto 被墙了,我 FQ 将 howto 的 pdf 文档下载下来了,读完后你将会对 Linux 的文件系统有进一步的认识。下载地址:http://pan.baidu.com/s/1kT1ETVp】。

最后希望各位同行的小伙伴们能谨记本文事件,开心敲代码,永远不出错~

程序员专栏
 扫码关注填加客服 
长按识别下方二维码进群

近期精彩内容推荐:  

 955 不加班的公司名单:955.WLB

 终于稳了!2020年8月程序员工资最新统计

 盘点 Python 10 大常用数据结构(上篇)

 理解Java反射的正确姿势





在看点这里好文分享给更多人↓↓

浏览 15
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报