========
我有一个DIY家庭NAS服务器建立在英特尔Atom (Zotac NM10-DTX WiFi),8 x 2TB WD鱼子酱HDD通过HighPoint-RocketRAID 2680连接,以及64 OS的SSD为操作系统。
安装已经运行了近两年(在UbuntuServer10.4LTS上)和使用mdraid (原来,我可以使用RAID适配器来连接驱动器和使用mdraid构建一个14 to的RAID5数组)。
最近,我开始遇到一些性能问题(读写变得很慢--无论是从网络中的其他主机访问数据,还是在NAS服务器上本地运行dd ),所以我决定在一段时间后更新操作系统(我只进行了自动安全更新)。升级后操作系统出现了可怕的错误,甚至连启动都没有--所以我决定彻底安装UbuntuServer12.04。
由于askubuntu,我成功地为RocketRAID 2680构建了驱动程序,我可以看到所有8个驱动器(/dev/sdb通过/dev/sdi)并运行mdadm - the返回:
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : e667bd7d:d55be409:e9e4094c:aa5ad989 (local to host wega)
Creation Time : Wed Jan 5 16:47:34 2011
Raid Level : raid5
Used Dev Size : 1953431232 (1862.94 GiB 2000.31 GB)
Array Size : 13674018624 (13040.56 GiB 14002.20 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0
Update Time : Tue Oct 15 18:36:41 2013
State : clean
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0
Checksum : d1fdf40 - correct
Events : 1010
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 8 65 3 active sync /dev/sde1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 97 5 active sync /dev/sdg1
6 6 8 113 6 active sync /dev/sdh1
7 7 8 129 7 active sync /dev/sdi1我还能够通过运行以下命令来激活/ded/md0:
mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1...returning:
mdadm: /dev/md0 has been started with 8 drives.虽然数组似乎已经成功地重新启动,但我没有看到我在两年前创建的14TB分区(此后一直使用它来存储我的所有数据)。运行cfdisk只显示一个具有~1.8TB容量和~12 of未使用空间的Linux分区:
Disk Drive: /dev/md0
Size: 14002195070976 bytes, 14002.1 GB
Heads: 2 Sectors per Track: 4 Cylinders: 3418504656
Name Flags Part Type FS Type [Label] Size (MB)
--------------------------------------------------------------------------
Pri/Log Free Space 0.06
md0p1 Primary Linux 1750274.33
Pri/Log Free Space 12251920.69在运行mdadm --细节/dev/md0时也会出现同样的情况。
/dev/md0:
Version : 0.90
Creation Time : Wed Jan 5 16:47:34 2011
Raid Level : raid5
Array Size : 13674018624 (13040.56 GiB 14002.20 GB)
Used Dev Size : 1953431232 (1862.94 GiB 2000.31 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Wed Oct 16 11:07:25 2013
State : clean
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : e667bd7d:d55be409:e9e4094c:aa5ad989 (local to host wega)
Events : 0.1010
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
4 8 81 4 active sync /dev/sdf1
5 8 97 5 active sync /dev/sdg1
6 8 113 6 active sync /dev/sdh1
7 8 129 7 active sync /dev/sdi1如果我正确理解-“数组大小”和“已使用设备大小”(2Tbvs14TB)之间的差异意味着存在一个问题。在了解发生了什么事情之前,我不想尝试挂载分区(以避免对数据的任何更改,这些更改会阻止我们再次访问RAID组)。
。
发布于 2013-10-16 13:23:52
使用的设备大小意味着每个单独的磁盘是2TB。不要使用cfdisk,因为它是一个只理解msdos分区表的老错误POS,它不支持磁盘> 2TB。使用parted代替,它支持gpt。
更重要的是,我认为在raid数组中甚至没有分区表。通常只是格式化整个数组,而不是将其分割,所以只需尝试挂载数组即可。
https://askubuntu.com/questions/359788
复制相似问题