Docker、Mesos、Kubernetes等新技术使企业能够更好地利用服务器。但是,考虑到整个数据中心的故障,我想知道如何在两个数据中心之间最大限度地利用。
鉴于这种情况:
两个数据中心(DC-A和DC-B)具有相同数量的计算资源.两个数据中心都以负载平衡/循环方式运行和服务请求。两个数据中心中的服务器利用率为80%。
假设DC-B失败(物理或网络),是不可及的.DC-A将无法增加80%的利用率,因为它本身已经达到了80%。将组织留在可能的DC-A将无法处理额外需求的州,并将造成干扰.
这是否意味着两个数据中心(DC-A和DC-B)组织只能最大限度地利用每个数据中心50%?也就是说,任何一个DC失败,而另一个DC将能够处理另一个DC承载的空闲(50% + 50%)。
这个想法正确吗?其他人是如何处理这个问题的,还是我遗漏了什么?
发布于 2015-07-31 11:16:20
对于需要始终可用的服务,您需要N+1冗余,其中N是处理负载所需的数据中心或服务器的数量(或在建议的故障场景中丢失的其他东西)。这变得更便宜,更大--在低端,有两个数据中心,每个中心都需要能够处理整个工作负载。但如果你有10,他们可以做9的工作,但仍然是多余的。
另一种选择是减少负荷,尽管这个短语更常用于电力系统。基本上,在失败场景中关闭任何非必需的服务,这样剩下的系统就有足够的资源。
发布于 2015-07-31 11:17:07
一种相当常见的方法是,对于生产环境,硬储备容量足够了,在发生灾难时,剩余的数据中心(S)应该能够处理满载,所有的操作都照常进行。
通常情况下,预算从来都不够延展,也不可能为非生产环境提供完整的灾难恢复/故障转移。退化或完全无法获得可能被认为是可以接受的。
根据平台的不同,一些人可以选择增加可用的生产能力,以满足剩余数据中心(S)增加的负载,方法是在发生灾难时缩小非生产环境。
https://serverfault.com/questions/709925
复制相似问题