我有一个主/中2节点DRBD设置,如图所示
global { usage-count no; }
common { syncer { rate 4M; } }
resource r0 {
protocol B;
startup {
wfc-timeout 15;
degr-wfc-timeout 60;
}
net {
cram-hmac-alg sha1;
shared-secret "whateverblahblahblah";
max-buffers 4096;
max-epoch-size 4096;
}
handlers {
split-brain "/usr/lib/drbd/notify-split-brain.sh admin@mydomain.com";
}
on node01.chofert.com {
device /dev/drbd0;
disk /dev/sdb1;
address <public_IP_1>:7788;
meta-disk internal;
}
on node02.chofert.com {
device /dev/drbd0;
disk /dev/sdb1;
address <public_IP_2>:7788;
meta-disk internal;
}
}我搬到了B协议,因为节点在不同的网络和B,它是足够我的需要。并且速率限制在4Mb,因为服务器之间的总带宽是12 4Mb(我知道很低,但是每天编写的字节确实很少)。
问题是,可能是由于一个消耗CPU的夜间进程,DRBD在大约2小时内崩溃。在此之后,尽管写作强度很低,但每天至少有2到3个完整的分区重新同步。
分区AT NODE1:
Disk /dev/sdb1: 8588 MB, 8588886528 bytes
255 heads, 63 sectors/track, 1044 cylinders, total 16775169 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000分区AT NODE2
Disk /dev/sdb1: 8588 MB, 8588886016 bytes
64 heads, 32 sectors/track, 8191 cylinders, total 16775168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000发布于 2013-12-31 09:30:47
哦,我会回答我自己:
经过不多的测试和工作,我可以确认: DRBD复制砖中涉及的分区/磁盘,必须在它们的几何形状上完全相同。仅此而已!因此,如果使用,最可靠的方法就是正确复制用于虚拟卷的相同文件。
也许这是在DRBD的某个地方被解释过的;我自己没有找到。
发布于 2013-07-29 05:02:48
:(
没有人知道?好的,在我所拥有的生产基础设施上进行测试并不容易,但是,由于每一个细节都很重要,我想我必须调整磁盘的大小,以消除1扇区不同的麻烦。
https://serverfault.com/questions/524404
复制相似问题