我是raid的新手,一个月前我用两个sata磁盘建立了一个软件RAID1。我没有检查状态,但通过拔出其中一个驱动器并验证系统正常工作进行了测试。
今天,我在终点站看到一封关于raid失败的邮件。
主题: /dev/md/1:ws上的DegradedArray事件
查看/var/mail,我在几个月前看到了类似的消息,但我从未注意到。驱动器是相当新的,我希望在我的配置问题。我在某个地方看到下面状态中的下划线如何删除驱动器,但是单个数组的状态没有显示任何失败的驱动器。
是什么导致了这一切?
cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda6[0]
471572344 blocks super 1.2 [2/1] [U_]
md0 : active raid1 sda1[0]
975860 blocks super 1.2 [2/1] [U_]
unused devices: <none>mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Mon Mar 14 21:14:03 2011
Raid Level : raid1
Array Size : 975860 (953.15 MiB 999.28 MB)
Used Dev Size : 975860 (953.15 MiB 999.28 MB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Wed Apr 6 05:21:36 2011
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : ws:0 (local to host ws)
UUID : c6d0fb74:948f791d:7dbebe82:9c11f022
Events : 314
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 0 0 1 removedmdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Mon Mar 14 21:14:35 2011
Raid Level : raid1
Array Size : 471572344 (449.73 GiB 482.89 GB)
Used Dev Size : 471572344 (449.73 GiB 482.89 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Update Time : Wed Apr 6 05:51:59 2011
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : ws:1 (local to host ws)
UUID : 3df658dc:0f252703:065ec271:3492458b
Events : 188462
Number Major Minor RaidDevice State
0 8 6 0 active sync /dev/sda6
1 0 0 1 removed发布于 2011-04-06 17:16:42
您是否忘记在插入时将驱动器重新添加到数组中?
http://www.howtoforge.com/replacing_硬性_盘片_在……里面_一个_raid1_数组有更多关于这方面的信息/教程。
对于将来,当您“测试”RAID数组(硬件或软件)时,仅仅失败驱动器是不够的:您必须验证数组是否重新构建并退出错误/降级状态,才能进行完整的测试(有些人甚至会说,您必须执行额外的步骤,并失败/重新构建另一个磁盘)。
https://serverfault.com/questions/256469
复制相似问题