好吧,张贴在这里,希望有人能帮上忙。
因此,我设置了一个4x1.5TB RAID6数组。把它建好了,什么的。效果很好。我复制了另外两个驱动器值的数据,然后将这两个驱动器扩展到数组中。有几个打嗝,但否则,它运行良好,花了很长时间。
今天,我复制了最后一个数据驱动器值,然后按照相同的步骤将其扩展到数组中,然后执行了"watch等“命令,以稳定地监视整形,因为为什么不呢?
……而且进展得很好,大概有10-11%,我注意到了.不再更新了。
这是在我通过网络从数组文件系统中看到一些东西的时候发生的。然后突然锁上了。
我想可能有什么不对劲的手表命令,所以我杀了它,只做了cat /proc/mdstat从cmdline。
却一无所获。没有输出或任何东西,光标向下一条线,但其他什么都不会发生。
如果我尝试一个mdadm --detail /dev/md0,同样的事情。什么都没发生。
如果我试图为数组在挂载目录中找到ls,我就会得到根列表,但是当我试图深入挖掘文件夹时,ls会执行与前两个命令相同的操作,并锁定它,但我甚至不能将ctrl从其中退出。
我认为造成这个问题的原因是,我显示了7个smbd进程,它们是状态D,必须是在我观看视频文件并锁定它时留下的。我当然杀不了他们,系统不会让我这么做的。
当然,我现在非常疑神疑鬼,有些东西完全变成梨形了,我将失去一切,我不想重新启动,因为我不知道它是否会破坏任何东西。
编辑:好..。因此:
我重新启动了(实际上我不得不关掉机器。它不会死的。)
我发现了这个:http://www.linuxquestions.org/questions/linux-server-73/raid-5-mdadm-grow-interrupted-what-to-do-next-602671/
我试过了,但没有运气。我得到了
mdadm: superblock on /dev/sdb1 doesn't match others - assembly aborted
当我在任何驱动器上执行mdadm -E时,我得到:
/dev/sdb1: Magic : a92b4efc Version : 00.91.00 UUID :
3c455e64:c4d0d230:c109596b:d7e29b7e Creation Time : Mon Nov 23 18:59:31 2009
Raid Level : raid6 Used Dev Size : 1465135936 (1397.26 GiB 1500.30 GB) Array
Size : 7325679680 (6986.31 GiB 7501.50 GB) Raid Devices : 7 Total Devices : 7
Preferred Minor : 0
Reshape pos'n : 967965760 (923.12 GiB 991.20 GB) Delta Devices : 1 (6->7)
Update Time : Tue Dec 1 20:48:48 2009
State : active
Active Devices : 6 Working Devices : 6 Failed Devices : 1 Spare Devices : 0 Checksum : a4096474 - correct Events : 40943
Chunk Size : 64K
Number Major Minor RaidDevice State
this 5 8 17 5 active sync /dev/sdb1
0 0 8 49 0 active sync /dev/sdd1 1 1 8 65 1 active sync /dev/sde1 2 2 8 81 2 active sync /dev/sdf1 3 3 8 97 3 active sync /dev/sdg1 4 4 8 1 4 active sync /dev/sda1 5 5 8 17 5 active sync /dev/sdb1 6 6 0 0 6 faulty removed“错误删除”是/dev/sdc1 1,这是我刚才添加的驱动器,并试图通过它来扩展数组。
然后我尝试了我在这里发现的东西:http://ubuntuforums.org/showpost.php?p=2526794&postcount=2
sudo mdadm --create /dev/md0 --assume-clean --level=6 --raid-devices=7 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sda1 /dev/sdb1 missing这将返回:
mdadm: /dev/sdd1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sde1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdf1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdg1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sda1 appears to contain an ext2fs file system size=1565523968K mtime=Mon Nov 30 23:59:03 2009 mdadm: /dev/sda1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid6 devices=7 ctime=Mon Nov 23 18:59:31 2009 Continue creating array? y mdadm: array /dev/md0 started.cat /proc/mdstat
给予:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid6 sdb1[5] sda1[4] sdg1[3] sdf1[2] sde1[1] sdd1[0] 7325679680 blocks level 6, 64k chunk, algorithm 2 [7/6] [UUUUUU_]和
sudo lvdisplay raid给予:
--- Logical volume --- LV Name /dev/raid/raid VG Name raid LV UUID R1fKIQ-dS9P-iOuN-BVGW-98Wo-Cc2w-rJ5wfp LV Write Access read/write LV Status available # open 0 LV Size 5.46 TB Current LE 5589 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0万岁!一切都很棒!不。
sudo mount /dev/raid/raid /blah给我:
mount: wrong fs type, bad option, bad superblock on /dev/mapper/raid-raid, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so如果我有头发的话我就会把头发拔出来。帮助。我只是假设没有重新下载6TB的东西:P
发布于 2009-12-08 09:30:36
第一步:什么都别做。第二步:给linux邮件列表发电子邮件。
如果重塑真的变成了梨形,NeilB (软件RAID维护者)将尽他所能提供帮助。
发布于 2009-12-02 21:19:02
它是使用哪个文件系统格式化的?你试过在设备上使用fsck -Vr来看看上面写了什么吗?
如果不是6TB,我建议使用dd和gzip制作备份映像,但我怀疑您是否有足够的外部存储空间。
祝好运。
https://serverfault.com/questions/90374
复制相似问题