我使用的是FreeNas 11.2 U5。
一个配置为Raidz-2的磁盘已经损坏,并安装了一个新磁盘来替换它。
但是,由于错误,卷管理器创建了一个新的条带磁盘。
所以有..。
[jehos@freenas ~]$ sudo zpool status
pool: MAIN
state: DEGRADED
status: One or more devices has been taken offline by the administrator.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Online the device using 'zpool online' or replace the device with
'zpool replace'.
scan: scrub repaired 0 in 0 days 06:48:21 with 0 errors on Sun Jun 16 06:48:24 2019
config:
NAME STATE READ WRITE CKSUM
MAIN DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
gptid/3cbffd2d-e366-11e3-a67c-c8cbb8c95fc0 ONLINE 0 0 0
gptid/3d98c268-e366-11e3-a67c-c8cbb8c95fc0 ONLINE 0 0 0
16493801384591910209 OFFLINE 0 0 0 was /dev/gptid/05be9493-e148-11e5-8ff4-c8cbb8c95fc0
gptid/3f43ab6c-e366-11e3-a67c-c8cbb8c95fc0 ONLINE 0 0 0
gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0 ONLINE 0 0 0我试图删除条纹卷,但失败了。
$ sudo zpool detach MAIN gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0
cannot dettach gptid/4fb8093c-ae3d-11ebd1-c8cb8c95fc0: only applicable to mirror and refitting vdevs如果我强制一条条删除已配置的磁盘,则整个池可能会中断。
如何安全地只删除意外创建的条卷?
发布于 2019-07-25 00:20:00
你即将失去数据,任何进一步的灾难都可能使你更接近于数据丢失,或者把你推到边缘。
你可以试试:
zpool remove -n MAIN gptid/4fb8093c-ae3d-11e9-bbd1-c8cbb8c95fc0但我不认为那会奏效。-n选项告诉zpool只列出将要执行的任务的结果,但不要实际执行。
-n 实际上并不执行删除操作(“no”)。相反,打印出在删除完成后将由映射表使用的估计的再转回的存储器量。这是非零的,只适用于转制、转轨、高级杂务。
如果看起来是允许的,那么在不使用-n的情况下再试一次。
不幸的是,我怀疑您将需要备份整个池,然后销毁池,重新创建它,并从备份恢复。通常,如果不销毁该池并重新创建该池,就不可能从ZFS池中删除VDEV。
https://serverfault.com/questions/976558
复制相似问题