首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Gluserfs治愈信息显示gfid的唯一

Gluserfs治愈信息显示gfid的唯一
EN

Server Fault用户
提问于 2015-11-19 19:33:55
回答 2查看 4.4K关注 0票数 0

我有一个双节点的GlusterFS设置.每一个都有两个复制。其中一个系统不知何故超载了。然后事情开始变糟了。目前,我所有的应用程序关闭。我不知道怎么把它拿回来。我可以启动卷,但有些文件似乎已损坏。

我运行了gluster volume heal kvm1,现在gluster volume heal kvm1 info显示了一个长长的"gfid“列表,如

代码语言:javascript
复制
<gfid:57d68ac5-5ae7-4d14-a65e-9b6bbe0f83a3>
<gfid:c725a364-93c5-4d98-9887-bc970412f124>
<gfid:8178c200-4c9a-407b-8954-08042e45bfce>
<gfid:b28866fa-6d29-4d2d-9f71-571a7f0403bd>

我不确定这是否真的能“治愈”任何东西。参赛人数一直保持稳定。我怎样才能确认愈合过程真的有效呢?

代码语言:javascript
复制
# gluster volume heal kvm1 info|egrep 'Brick|entries'
Brick f24p:/data/glusterfs/kvm1/brick1/brick
Number of entries: 5
Brick f23p:/data/glusterfs/kvm1/brick1/brick
Number of entries: 216
Brick f23p:/bricks/brick1/kvm1
Number of entries: 6
Brick f24p:/bricks/brick2/kvm1
Number of entries: 1

# gluster volume status
Status of volume: kvm1
Gluster process                                         Port    Online  Pid
------------------------------------------------------------------------------
Brick f24p:/data/glusterfs/kvm1/brick1/brick       49160   Y       5937
Brick f23p:/data/glusterfs/kvm1/brick1/brick       49153   Y       5766
Brick f23p:/bricks/brick1/kvm1                     49154   Y       5770
Brick f24p:/bricks/brick2/kvm1                     49161   Y       5941
NFS Server on localhost                            2049    Y       5785
Self-heal Daemon on localhost                      N/A     Y       5789
NFS Server on f24p                                 2049    Y       5919
Self-heal Daemon on f24p                           N/A     Y       5923

There are no active volume tasks
EN

回答 2

Server Fault用户

发布于 2015-12-01 14:42:56

我也处于同一状态:

  • 2个复制
  • 砂砾体积愈合myVolume信息显示一个砖块上的gfid。

我找到了这个脚本(将gfid解析为filepath) https://gist.github.com/semiosis/4392640

我的解释是显示gfid的节点上的第一行gfid(即gfid命令的结果)。

文件%yourBrickPath%/.glusterfs/57/d6/57d68ac5-5ae7-4d14-a65e-9b6bbe0f83a3是指向inode的硬链接。

在正常情况下,您应该有一个文件(在生产目录中)指向同一个inode,并且由于某种原因,这个硬链接不再存在。

我认为有两种解决办法:

  • 在生产目录中重新创建缺少的硬链接(并确保在另一个节点上具有相同的状态)
  • 您无法知道它是什么文件名(因为在另一个节点上没有任何内容),所以您可以删除%yourBrickPath%/.glusterfs/57/d6/57d68ac5-5ae7-4d14-a65e-9b6bbe0f83a3。

编辑:文件的内容可能会有所帮助

票数 2
EN

Server Fault用户

发布于 2017-01-05 10:54:11

如果您运行的是版本<3.7.7,您可能会遇到这个错误:

https://bugzilla.redhat.com/show_bug.cgi?id=1284863

检查是否有任何臀位日志显示“无法获得xlator xl-0”。

修正在3.7.7中。然而,如果有人能找到解决办法,那就太好了。

票数 0
EN
页面原文内容由Server Fault提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://serverfault.com/questions/737631

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档