为了测试目的,我在单个VM中安装了Ceph (就其本身而言,我不是在测试ceph,但我将运行的工具需要一个ceph端点)。安装非常简单,但我尝试创建的cephfs文件系统(ceph fs volume create tank)需要花费很长时间(“永远”意味着“到目前为止至少20分钟”)才能可用。运行ceph mds status显示:
tank:1 {0=tank.ceph.znlhma=up:creating} 1 up:standby运行ceph status显示:
cluster:
id: 0350c95c-e59a-11eb-be4b-52540085de8c
health: HEALTH_WARN
1 MDSs report slow metadata IOs
Reduced data availability: 64 pgs inactive
Degraded data redundancy: 64 pgs undersized
OSD count 1 < osd_pool_default_size 3
services:
mon: 1 daemons, quorum ceph.storage (age 50m)
mgr: ceph.storage.pealqx(active, since 50m)
mds: 1/1 daemons up, 1 standby
osd: 1 osds: 1 up (since 50m), 1 in (since 58m)
data:
volumes: 1/1 healthy
pools: 2 pools, 64 pgs
objects: 0 objects, 0 B
usage: 6.1 MiB used, 100 GiB / 100 GiB avail
pgs: 100.000% pgs not active
64 undersized+peered除了"1 MDSs报告慢元数据IOs“之外,大多数情况下都会出现这种情况,我想这是有症状的。在一个100 an的虚拟磁盘(/dev/vdb)上只有一个OSD,它由NVME磁盘上的btrfs文件系统支持。
有什么我可以做的来使这个更快的创造吗?我不需要Ceph做特别的表演者,但是我希望能够在更短的时间内使这个测试环境恢复正常。
发布于 2021-07-15 20:49:30
答案是,在默认情况下,ceph不会用少于三个副本激活OSD。解决方案是为相应的池设置min_size,如下所示:
ceph osd pool set cephfs.tank.meta min_size 1
ceph osd pool set cephfs.tank.data min_size 1(在您的环境中,用任何合适的池名替换cephfs.tank.meta和cephfs.tank.data。)
https://unix.stackexchange.com/questions/658581
复制相似问题