首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >塞夫·鲁米诺,我错过了什么?

塞夫·鲁米诺,我错过了什么?
EN

Stack Overflow用户
提问于 2020-04-12 07:00:34
回答 1查看 213关注 0票数 1

在之前的Jewel版本中,我没有遇到任何问题。我已经创建了一个包含5个vms的测试集群,全部使用Centos 7和Ceph的Nautilus版本。1个vm是监视器,3个是OSD,1个是管理管理器。集群的部署正常,运行状况也正常,但在创建MDS和池之后...

代码语言:javascript
复制
ceph -s
  cluster:
    id:     87c90336-38bc-4ec2-bcde-2629e1e7b12f
    health: HEALTH_WARN
            Reduced data availability: 42 pgs inactive, 43 pgs peering

  services:
    mon: 1 daemons, quorum ceph1-mon (age 8m)
    mgr: ceph1-admin(active, since 8m)
    mds: cephfs:1 {0=ceph1-osd=up:active} 1 up:standby
    osd: 3 osds: 3 up (since 7m), 3 in (since 20h)

  data:
    pools:   2 pools, 128 pgs
    objects: 18 objects, 2.6 KiB
    usage:   2.1 GiB used, 78 GiB / 80 GiB avail
    pgs:     32.812% pgs unknown
             67.188% pgs not active
             86 peering
             42 unknown

检查健康状况..

代码语言:javascript
复制
ceph health detail 
HEALTH_WARN Reduced data availability: 42 pgs inactive, 43 pgs peering
PG_AVAILABILITY Reduced data availability: 42 pgs inactive, 43 pgs peering
    pg 9.0 is stuck peering for 254.671721, current state peering, last acting [0,1,2]
    pg 9.1 is stuck peering for 254.671732, current state peering, last acting [0,2,1]
    pg 9.4 is stuck peering for 254.670850, current state peering, last acting [0,1,2]
    pg 9.5 is stuck inactive for 234.575775, current state unknown, last acting []
    pg 9.7 is stuck inactive for 234.575775, current state unknown, last acting []
    pg 9.8 is stuck inactive for 234.575775, current state unknown, last acting []

输出真的很长。许多PG处于非活动状态或处于对等状态。我已经使用了这个配置:

代码语言:javascript
复制
#ceph.conf
[global]
fsid = 87c90336-38bc-4ec2-bcde-2629e1e7b12f
mon_initial_members = ceph1-mon
mon_host = 10.2.0.117
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
mon_allow_pool_delete = true
mon_max_pg_per_osd = 128
osd max pg per osd hard ratio = 10 # < default is 2, try to set at least 5. It will be

我已经使用以下命令创建了OSD:

代码语言:javascript
复制
ceph-deploy --overwrite-conf osd create --data /dev/vdb ceph1-osd
ceph-deploy --overwrite-conf osd create --data /dev/vdb ceph2-osd
ceph-deploy --overwrite-conf osd create --data /dev/vdb ceph3-osd

我已经使用以下命令创建了MDS:

代码语言:javascript
复制
ceph-deploy mds create ceph1-osd
ceph-deploy mds create ceph2-osd
ceph-deploy mds create ceph3-osd

对于池和文件系统,我使用了以下命令:

代码语言:javascript
复制
ceph osd pool create cephfs_data 64
ceph osd pool create cephfs_metadata 64
ceph fs new cephfs cephfs_metadata cephfs_data

怎么了?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-04-14 16:33:57

在大多数情况下,此类对等/未知PG都与连接问题有关。监视器和OSD是否可以相互访问?是否存在防火墙问题或导致这些问题的某些糟糕的路由?

此外,OSD和监视器日志也值得查看。日志中是否有错误(很明显)?

检查所有这些将指导您解决您的问题。

另请参阅Ceph troubleshooting guide

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/61164763

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档