首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >DRBD在LVM上或在DRBD上有多个磁盘

DRBD在LVM上或在DRBD上有多个磁盘
EN

Server Fault用户
提问于 2023-01-06 13:17:33
回答 1查看 178关注 0票数 2

我有4台相同的服务器,每个服务器都带有1+3 SSD,用于数据(无RAID) + 2x10G和2x1G网络。我想有一个主动-被动的NFS设置与单一的出口。我可能会使用2个集群,所以有2个活动的NFS服务器/导出,它将由许多客户机(作为主目录)用autofs挂载,所以哪一个服务器有数据并不重要(如果有一个停机的话,总是运行一个集群是一个+-升级/迁移/失败);两者都是备份的。我本来想去CEPH的,但是:

  • 使用NFS进行出口,并有一个u/g/p配额,我认为这是不可能的(?)
  • 直接从客户端获取cephf会使事情复杂化(隔离、访问控制等)。
  • 加上副本2vs3=更大的容量。

我仍然不明白这种关系是什么,以及它如何是最好的和dis的优势:

  1. 1xResourcewith3x(卷< SSD) =3xrdbd> 1xLV > XFS
  2. 1xResourcewith1xrdbd< 1LV < 3xSSD = rdbd > ?LV > XFS [链接]

我相信这就像RAID 0+1或1+0 (有差异)。所以选项(1)最好是复制单个磁盘(多个元磁盘),而不是单个卷复制(单个元磁盘失败的概率),而在磁盘故障的情况下则更好.我认为?这都是关于如何处理磁盘故障的,对吧?其他建议或建议?

EN

回答 1

Server Fault用户

发布于 2023-01-12 03:26:23

与4台服务器和所有SSD w/out的任何RAID,您的配置只是请求Ceph擦除编码的设置!

  1. E/C池创建(假设您已经拥有Ceph集群)

https://subscription.packtpub.com/book/cloud-&-networking/9781784393502/8/ch08lvl1sec89/creating-an-erasure-coded-pool

  1. 在(1) E/C池中新创建的NFS服务

https://access.redhat.com/documentation/en-us/red_帽子_卡夫_存储/5/html/仪表板_guide/management-of-nfs-ganesha-exports-on-the-ceph-dashboard

不要使用DRBD!由于庞大的复制开销,存储效率低下,“拆分大脑”是…的第二个名称

票数 3
EN
页面原文内容由Server Fault提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://serverfault.com/questions/1119598

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档