我有一个双节点的GlusterFS设置.每一个都有两个复制。其中一个系统不知何故超载了。然后事情开始变糟了。目前,我所有的应用程序关闭。我不知道怎么把它拿回来。我可以启动卷,但有些文件似乎已损坏。
我运行了gluster volume heal kvm1,现在gluster volume heal kvm1 info显示了一个长长的"gfid“列表,如
<gfid:57d68ac5-5ae7-4d14-a65e-9b6bbe0f83a3>
<gfid:c725a364-93c5-4d98-9887-bc970412f124>
<gfid:8178c200-4c9a-407b-8954-08042e45bfce>
<gfid:b28866fa-6d29-4d2d-9f71-571a7f0403bd>我不确定这是否真的能“治愈”任何东西。参赛人数一直保持稳定。我怎样才能确认愈合过程真的有效呢?
# gluster volume heal kvm1 info|egrep 'Brick|entries'
Brick f24p:/data/glusterfs/kvm1/brick1/brick
Number of entries: 5
Brick f23p:/data/glusterfs/kvm1/brick1/brick
Number of entries: 216
Brick f23p:/bricks/brick1/kvm1
Number of entries: 6
Brick f24p:/bricks/brick2/kvm1
Number of entries: 1
# gluster volume status
Status of volume: kvm1
Gluster process Port Online Pid
------------------------------------------------------------------------------
Brick f24p:/data/glusterfs/kvm1/brick1/brick 49160 Y 5937
Brick f23p:/data/glusterfs/kvm1/brick1/brick 49153 Y 5766
Brick f23p:/bricks/brick1/kvm1 49154 Y 5770
Brick f24p:/bricks/brick2/kvm1 49161 Y 5941
NFS Server on localhost 2049 Y 5785
Self-heal Daemon on localhost N/A Y 5789
NFS Server on f24p 2049 Y 5919
Self-heal Daemon on f24p N/A Y 5923
There are no active volume tasks发布于 2015-12-01 14:42:56
我也处于同一状态:
我找到了这个脚本(将gfid解析为filepath) https://gist.github.com/semiosis/4392640
我的解释是显示gfid的节点上的第一行gfid(即gfid命令的结果)。
文件%yourBrickPath%/.glusterfs/57/d6/57d68ac5-5ae7-4d14-a65e-9b6bbe0f83a3是指向inode的硬链接。
在正常情况下,您应该有一个文件(在生产目录中)指向同一个inode,并且由于某种原因,这个硬链接不再存在。
我认为有两种解决办法:
编辑:文件的内容可能会有所帮助
发布于 2017-01-05 10:54:11
如果您运行的是版本<3.7.7,您可能会遇到这个错误:
https://bugzilla.redhat.com/show_bug.cgi?id=1284863
检查是否有任何臀位日志显示“无法获得xlator xl-0”。
修正在3.7.7中。然而,如果有人能找到解决办法,那就太好了。
https://serverfault.com/questions/737631
复制相似问题