我有一个运行SLES11 SP4的Linux服务器,它使用Open和multipathing连接到一个LUN,LUN是从一个具有主动/被动故障转移的Open v7存储集群中提供的。
Linux服务器db03与我们的iSCSI网络中的IP 10.0.100.66/22有其接口bond0。Open集群的每一端都有两个iSCSI网络的in :第一个节点上的10.0.100.71和10.0.100.72,第二个节点上的10.0.100.73和10.0.100.74。
因此,当未发生故障转移时,发现如下:
db03:~ # iscsiadm -m discovery -t sendtargets -p 10.0.100.71:3260
10.0.100.71:3260,1 opene.lun602
10.0.100.72:3260,1 opene.lun602将两个目标连接在一起,这就是多路径状态:
db03:~ # multipath -ll
opene.lun602 (2697a42a45d5dcbdb) dm-0 SCST_BIO,izcegeu6eeb2jaeJ
size=500G features='0' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=1 status=active
|- 7:0:0:0 sda 8:0 active ready running
`- 8:0:0:0 sdb 8:16 active ready running在发生故障转移的情况下,这些连接都进入了failed faulty,在内核决定重新装载文件系统只读之前,我只剩下0条路径和所有I/O错误。
那时我可以手动尝试另一个发现,连接另外两个目标,.但是在Linux端不会自动发生故障转移。
所以我想知道:
active ready,这显然不是一个好主意,与一个只将I/O定向到活动部分的主动/被动集群一起使用。)作为参考,这是我的multipath.conf:
cat /etc/multipath.conf
multipaths {
multipath {
wwid 2697a42a45d5dcbdb
alias opene.lun602
}
}
devices {
device {
vendor "SCST_FIO|SCST_BIO"
product "*"
path_selector "round-robin 0"
path_grouping_policy multibus
rr_min_io 100
}
}发布于 2016-04-23 03:15:06
我有一个运行SLES11 SP4的Linux服务器,它使用Open和multipathing连接到一个LUN,LUN是从一个具有主动/被动故障转移的Open v7存储集群中提供的。
不幸的是,Ping Open非常接近于失去支持。这些家伙使用分叉从SCST目标和一些严重的mods,所以所有的东西,人们会建议根据“共同的”SCST知识可能会或不起作用,而谁曾与开放-E的人是罕见的,因为一个很好的理由。真对不起!
ESXi上的多路径则是另一回事。要使更新工作可靠,很可能以节点重新启动结束。完美的包装在这里:
http://www.codyhosterman.com/2015/03/esxi-iscsi-multipathing/
祝好运!
https://serverfault.com/questions/771367
复制相似问题