关于误删除文件的恢复

时间:2022-11-19 07:47:26
发信人: wwind (随风), 信区: Linux        
标  题: 关于误删除文件的恢复 
发信站: BBS 水木清华站 (Sun Apr 30 13:37:50 2000) 
 
    前些天被我误删掉的home directory下的几千个文件,经过本人数天的连续奋战, 
现绝大部分已恢复,算是奇迹也不是奇迹。 
    删掉文件其实只是将指向数据块的索引点(information nodes)释放,只要不被覆 
盖,数据其实还在硬盘上,关键在于找出索引点,然后将其所指数据块内的数据抓出, 
再保存到另外的分区。 
    我先在网上查有关linux 
undelete的信息,找到一个ext2fs-undeletion的mini-Howto,后发觉在RH6.2的 
/usr/doc/HOWTO内也有,按它的方法,先将被删掉数据的盘区umount掉(防止写盘覆 
盖被删除的数据,显然这一步在误删数据后做得越快越好,尤其是对多人使用的计算 
机),然后查文件系统中哪些索引点最近被释放: 
  #debugfs /dev/hda6 (my 'home' partition) 
   debugfs: lsdel 
即给出相应信息,包括索引点,文件属主,大小,删除日期等。也可将结果输出到 
一个文件中 
   debugfs: quit 
  # echo lsdel | debugfs /dev/hda6 > lsdel.out 
还可用debugfs中stat查看某一索引点的详细信息: 
   debugfs: stat <148003>    (148003为索引点) 
尤其注意其数据块是否连续! 
然后将该索引点所指数据块内的数据抓出并存到另一盘区: 
   debugfs: dump <148003> /dosd/tmp/recovered.001 
   按该mini-Howto的说法,以上方法只使用于大小不超过12个block的文件,对于 
超过12个block的文件,由于unix是将数据分段保存的,需要将各段数据分别取出再 
拼接,所以比较麻烦。但我用stat检查的结果,大文件的数据块也都是紧挨着的, 
并没有被分段, 于是我试着用同样的方法将文件dump出来,发觉结果完全正确,对 
六百多兆的大文件也适用!不知道linux就是连续保存文件的,还是因为我的计算机 
只有我一个用户而使然,反正我用上述简单方法将我误删的绝大部分文件都恢复了。 
    需要说明的一点是,恢复的文件是没有保留文件名的,需要你查看文件内容后, 
再重新命名。 
    靠人不如靠己,当初没有轻易放弃看来是正确的,尽管我有少量备份。不过经过 
这场"灾难",本人的指法倒是又熟练了不少:几千个文件得一个一个恢复!