我运行了一台新的CentOS 7机器。Linux运行在2xSSD安装程序上,我还在软件RAID10中安装了4xSAS驱动器。RAID10数组很大,有4x12TB驱动器,所以可以使用24 is。
文件系统是: ext4
现在,我完成了一些文件的复制到它,我正在做一个raid检查(非常第一个)。
Every 2.0s: cat /proc/mdstat Mon Oct 14 06:28:38 2019
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md127 : active raid10 sdf1[3] sdd1[1] sde1[2] sdc1[0]
23437503488 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]
[======>..............] check = 32.6% (7649123136/23437503488) finish=3402.6min speed=77333K/sec
bitmap: 0/175 pages [0KB], 65536KB chunk
md2 : active raid1 sdb2[1] sda2[0]
20478912 blocks [2/2] [UU]
md3 : active raid1 sdb3[1] sda3[0]
447318976 blocks [2/2] [UU]
bitmap: 3/4 pages [12KB], 65536KB chunk
unused devices: <none>它开始时大约是250,000 K/秒,但一直在变慢,现在大约是75,000 K/S
RAID10数组中的驱动器目前没有被其他任何东西使用。
我已经调整了速度限制设置。
dev.raid.speed_limit_min = 100000
dev.raid.speed_limit_max = 1000000CPU使用率大约为2%,我获得了大量的RAM空闲,RAID阵列中的4个驱动器报告了每个驱动器大约25%的驱动器利用率,因此它们不会被重新同步系统硬推。
我的问题是:
发布于 2019-10-16 08:42:01
您的message文件正好显示了我所期望的:磁盘/外壳不断中止命令和重置。受影响的磁盘似乎总是sdc,所以它可能是罪魁祸首。
要解决这个问题,最明显的办法就是更换它。不过,我想首先尝试:
sdc (以改变SAS电缆/电源线),并检查错误是否跟随驱动器或仍然绑定到完全相同的插槽/端口;dd if=/dev/sdc of=/dev/null bs=1M iflag=direct直接从磁盘读取以获得额外的调试数据。如果由于某种原因无法更换驱动器,可以尝试通过dd if=/dev/zero of=/dev/sdc bs=1M oflag=direct完全重写设备来强制坏块重新分配。大警告:这将彻底和不可逆转地破坏sdc上的所有数据。只有当你真的不能更换驱动器的时候才试一试。
https://serverfault.com/questions/987850
复制相似问题