首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏橙子架构杂谈

    服务治理在猫眼娱乐的演进之路(一)- 可用治理中心

    所以基于这些问题,猫眼开始开展服务治理的演进之路。 可用治理中心在猫眼的落地 我们关注发现,猫眼主要面临的场景是大流量下的概率性故障。 基于这样的一些背景,我们得出可用治理在猫眼的落地理论架构是:面向故障全生命周期进行治理,悲观与乐观并济。 基于这样的一些考虑,我们开展了专项的治理行动,自研了猫眼可用治理中心,代号大禹。旨在提供自动化的限流、熔断、降级、隔离、演练、监控报警的一站式可用性保障方案。 首先,这个是我们可用治理中心的一个分层架构。 当然,稳定性保障仅靠可用治理中心是不够的,业务层面,也进行了大量的持续优化。

    1.1K00发布于 2019-12-19
  • 来自专栏兜兜毛毛

    Kafka 可用架构 (3

    用到了3个特点:watch机制;节点不允许重复写入;临时节点。 这样实现是比较简单,但也会存在一定弊端。 HW(Hign Watermark 水位):ISR中最小的LEO。Leader会管理所有ISR中最小的LEO为HW。 consumer最多只能消费到HW之前的位置。 leader更新HW(ISR最小的LEO) kafka设计了独特的ISR复制,可以在保障数据一致性情况下又可以提供吞吐量。

    87730发布于 2021-04-01
  • 来自专栏宗恩

    OushuDB 管理指南 集群可用3

    </value></property><property><name>ha_zookeeper_quorum</name><value>ZKHOST1:2181,ZKHOST2:2181,ZKHOST3: 2181,z.z.z.z:2181oushu_master 在 zookeeper 服务能正常访问时(半数以上zookeeper节点存活),Oushu Database 的备用主节点能在主节点故障后 2~3

    61520编辑于 2023-05-08
  • 来自专栏开发经验

    微服务治理之道:构建可伸缩和可用的系统

    缓存 构建可用的微服务系统 1. 容错设计 2. 多区域部署 3. 自动故障转移 4. 数据复制和备份 5. 然而,微服务并不是银弹,它引入了新的挑战,特别是在微服务治理方面。本文将探讨微服务治理的重要性,以及如何构建可伸缩和可用的微服务系统。 什么是微服务治理? 负载均衡器分发流量到这些实例,以确保可用性和性能。 3. 容错处理 由于网络不可靠性等原因,微服务可能会出现故障。微服务治理需要提供容错处理机制,以确保系统的稳定性。 4. 、可伸缩性和可用性方面。 通过合理的微服务治理、水平扩展、负载均衡、自动化和可用性设计,您可以构建出稳定、高效且可伸缩的微服务系统。

    64410编辑于 2023-12-13
  • 来自专栏杨建荣的学习笔记

    B站服务稳定性建设:可用架构与多活治理

    当前继续专注于核心业务多活建设推进、多活管控治理等工作。 分享概要 一、可用多活架构 二、业务多活改造 三、多活管控与治理 一、可用多活架构 相较于传统的灾备单活的架构,多活指的是在同城或异地的一个数据中心建立一套与本地生产系统部分或完全对应的一套服务,再进行流量调度 1.可用整体架构 2.多活的方案类型 我们使用蚂蚁的CRG多活定义类型,CRG分别代表GZone 、RZone、CZone的三种模式。 三、多活管控与治理 1.多活元信息规则治理 我们初期在CDN上的一些规则偏向非标,有大量的正则写法,所以我们在做第一步时就对多活元信息的规则进行了治理,APIGW接入时也应用了前缀路由的模式,以方便做后续的统一切流管理 Q3可用多活的成本如何把控,过程中对ROI的考虑是怎样的? A3:要从以下两个方面分析:一是收益。发生故障时,就会感知到多活的收益是有价值的。

    1.4K21编辑于 2023-09-04
  • 来自专栏全栈程序员必看

    rabbitmq可用集群搭建_mongodb可用架构

    RabbitMQ 可用集群搭建 1 集群简介 1.1 集群架构 ​ 当单台 RabbitMQ 服务器的处理消息的能力达到瓶颈时,此时可以通过 RabbitMQ 集群来进行扩展,从而达到提升吞吐量的目的 一个可用,负载均衡的 RabbitMQ 集群架构应类似下图: 这里对上面的集群架构做一下解释说明: ​ 首先一个基本的 RabbitMQ 集群不是可用的,虽然集群共享队列,但在默认情况下,消息只会被路由到某一个节点的符合条件的队列上 retries 3 # 每个进程可用的最大连接数 maxconn 2000 # 连接超时 timeout connect 5s # 客户端超时 ;如果连续 3 次的检查结果都不正常,则认为该节点不可用。 juejin.im/post/6844904071183220749 RabbitMQ 官方文档 —— 集群指南:www.rabbitmq.com/clustering.… RabbitMQ 官方文档 —— 可用镜像队列

    3K10编辑于 2022-09-30
  • 来自专栏AustinDatabases

    谁说postgresql 没有靠谱的可用3

    并修改 1 failover='automatic' #如果侦测到失败,则进行自动切换,默认为手动 2 connection_check_type=ping #检测的方式为PING 的方式 3 尝试6次 6 reconnect_interval=10 #间隔 10秒每次 然后在每台服务器上执行 repmgrd -f /etc/repmgr.conf 就可以完成postgresql 可用 具体的过程如下 1 repmgrd (主,从 )监听主库的服务是否在工作状态 2 关闭 主 ,主库 从库的 PQping() returned "PQPING_REJECT" 3 开始启动计时器,6次尝试后 那么后续还有一些问题需要继续 1 是否配置见证服务器,什么情况配置,怎么配置 2 失败 主节点想重新加入,怎么办 3 IP 切换怎么办 剩下的这些问题还是讲不完,今天将最简单的 问题2 继续下去 2 如果原主本身数据受损,或者无法启动那这个命令也是没有办法帮助你的, 这个命令的大致的使用点,1 主库意外关机后的从新加入集群(主库能用但和从库有一定的数据不一致了) 所以PG 的集群可用还是挺有意思的

    2.9K40发布于 2019-12-24
  • 来自专栏后台技术底层理解

    redis并发可用

    redis 可用,如果是做主从架构部署,那么加上哨兵就可以了,就可以实现,任何一个实例宕机,可以进行主备切换。 所以就有了几个问题? 什么是主从架构,主从如何备份? 协议同步节点信息 6、自动故障转移、Slot迁移中数据可用 缺点: 1、架构比较新,最佳实践较少 2、为了性能提升,客户端需要缓存路由表信息 3、节点发现、reshard操作不够自动化 加减节点: 每台主机优化下每一个增加几个槽 哨兵用于实现 redis 集群的可用,本身也是分布式的,作为一个哨兵集群去运行,互相协同工作。 哨兵的核心知识 哨兵至少需要 3 个实例,来保证自己的健壮性。 哨兵 + redis 主从的部署架构,是不保证数据零丢失的,只能保证 redis 集群的可用性。 ==怎么保证redis是并发以及可用的==? sdown 和 odown 转换机制 sdown 是主观宕机,就一个哨兵如果自己觉得一个 master 宕机了,那么就是主观宕机。

    3.2K10发布于 2020-08-04
  • 来自专栏SY小站的专栏

    ingress可用

    name: https containerPort: 443 livenessProbe: failureThreshold: 3 selector: app.kubernetes.io/name: ingress-nginx app.kubernetes.io/part-of: ingress-nginx --- 3. hostport,效率等同于`hostNetwork`,如果不代理四层端口还好,代理了的话每增加一个四成端口都需要修改pod的template来滚动更新来让nginx bind的四层端口能映射到宿主机上 3、 kube-proxy转发到Ingress Controller的pod上,多走一趟路 4、不创建svc,效率最高,也能四层负载的时候不修改pod的template,唯一要注意的是`hostNetwork: true 可用选择第四种 name: https containerPort: 443 livenessProbe: failureThreshold: 3

    2.5K30发布于 2020-06-15
  • 来自专栏写代码和思考

    可用 - 简述

    背景 本文记录一些可用的内容,和数据库在可用方面的演进过程。 1. 概念 可用性: 即软件系统在一段时间内提供 有用资源 的能力。 如何设计来做到可用 保证系统可用,架构设计的核心准则是:冗余 和 故障转移。 单点系统的问题是,挂了就完全不可用了,服务会受影响。如果有冗余备份,其他后备的系统能够顶上,保证服务继续可用。 所以,又往往是通过“自动故障转移”来使得快速切换到备份系统来实现可用。 常见的互联网分布式架构是: 前端 ---> 反向代理 --> WEB应用 --> 服务 --> 数据库(及缓存) 其中,可用可涉及到上面每个节点的可用保障,我们看下数据的可用架构的演变过程。 3. 数据库的可用简史 3.1 主从备份(Active-Passive) 最开始,数据库运行在单台机器上,只有一个节点负责处理所有的读取和写入操作。数据库要么在运行,要么被关闭。

    2.1K10发布于 2020-05-08
  • 来自专栏问天丶天问

    SkyWalking 可用

    生产环境中,后端应用需要支持吞吐量并且支持可用来保证服务的稳定,因此需要高可用集群管理。 可用需要: 至少一个 Nacos(可以是nacos集群) 至少一个 ElasticSearch / mysql(可以是es/msql集群) 至少2个skywalking oap服务; 至少1个UI(UI

    47110编辑于 2024-10-03
  • 来自专栏编程一生

    实践可用

        本篇文章是之前一篇《大话可用》的可用心法的案例篇。   说实践之前先说概念。    具体实践如下: 架构可用   交易这边进行在进行重构。将原有的核心交易从职责上划分为交易收单、交易保障和数据中心三个大块。   从高可用上,交易收单要保证实时交易现场的可用。 所以它才是对可用需要考虑最多的,对MTBF和MTTR都要考虑和权衡。但是在对可用要求上交易收单和交易保障是基本职责,指标就是稳定、稳定和稳定。 数据中心关乎的用户体验,是可以持续优化的,但是对可用是有一定容忍度的:比如页面会加载慢,或者第一次加载不了刷新就成功了。 发版的并行执行机器数不超过3台。3台服务启动不起来对系统没有影响。实现了无损容灾的目的。  有损降级 我理解的降级:     从整体负荷考虑,人工的或者自动的对部分服务进行低优先级的处理。

    1.1K30发布于 2018-07-02
  • 来自专栏技术杂记

    Mycat HA(可用) 与 LB(负载均衡)3

    Init in -lcrypto... yes checking for SSL_CTX_new in -lssl... yes checking for nl_socket_alloc in -lnl-3. drwxr-xr-x 5 root root 4096 Mar 2 15:58 etc drwxr-xr-x 2 root root 4096 Mar 2 15:58 sbin drwxr-xr-x 3

    57630发布于 2021-12-02
  • 来自专栏编程一生

    大话可用

      今天老大跟我讨论说,没有看到过一篇够全面体系的可用的文章。谈到可用,基本都是以偏概全的文章。今晚抽空想了一下这个问题。    可用我另一个更资深老大其实总结的很全面了:别人死我们不死,自己不作死,不被队友搞死。   然后就是怎么别人死我们不死:最好就是别人的东西和我们没关系,就是去依赖。如果实在有依赖呢,那就尽量弱依赖。 拿阿里巴巴来说,他们的异地多活经历了3个阶段。 ?   最后考虑怎么不被队友搞死。   

    1K20发布于 2018-07-02
  • 来自专栏院长运维开发

    ingress可用

    name: https containerPort: 443 livenessProbe: failureThreshold: 3 app.kubernetes.io/name: ingress-nginx app.kubernetes.io/part-of: ingress-nginx --- Ingress Contronler 可用 hostport,效率等同于hostNetwork,如果不代理四层端口还好,代理了的话每增加一个四成端口都需要修改pod的template来滚动更新来让nginx bind的四层端口能映射到宿主机上 3、 也就是使用了主机的dns,会导致svc的请求直接走宿主机的上到公网的dns服务器而非集群里的dns server,需要设置pod的dnsPolicy: ClusterFirstWithHostNet即可解决 可用选择第四种 name: https containerPort: 443 livenessProbe: failureThreshold: 3

    2.6K20发布于 2020-06-13
  • 来自专栏用户1337634的专栏

    可用 --- Redis

    因为Redis拥有诸多优秀的特性,使用范围越来越广,系统对其可用性的依赖也越来越重,当前绝大部分系统使用的Redis都实现了可用。 这里主要介绍Redis官方推荐的两种可用方案Sentinel和Redis Cluster。 (如有不明白可以参考《Redis设计与实现》) 可用 Redis实现可用主要有两种方式,一种是Sentinel(3.0之前),一种是3.0正式支持的Redis Cluster(推荐)。 Sentinel(哨兵) 在Redis Server之外,运行数个Sentinel(一般是3个),负责监控Redis Server健康状况以及实现故障转移。 如果master没有设置持久化,存在风险,如果不小心重启,则会丢失所有数据,而且从机也会因为同步,丢失所有数据(所以一定要高可用)。

    1.1K40发布于 2019-03-27
  • 来自专栏PHPer 进击

    MySQL - 可用性:少宕机即可用

    我们之前了解了复制、扩展性,接下来就让我们来了解可用性。归根到底,可用性就意味着 "更少的宕机时间"。 老规矩,讨论一个名词,首先要给它下个定义,那么什么是可用性? 1 什么是可用性 我们常见的可用性通常以百分比表示,这本身就有其隐藏的意味:可用性不是绝对的。换句话说,100% 的可用性是不可能达到的。没错,这里可以这么肯定的说。 同样的计算,我们可以得出 3 个 9 每年宕机时间为 8.76 小时,4 个 9 的是 52.6 分钟。 服务器 BUG;3. 3 如何实现可用性 通过上面的分析,也许你已经发现了,我们可用性取决于两个时间: 应用的平均失效时间 应用的平均恢复时间 因此,提高可用性也可以从这两个方面入手。

    1.9K20发布于 2019-05-13
  • 数据治理之重:Hive Metastore深入解析与可用配置全攻略

    值得一提的是,随着数据治理需求的不断提升,Hive Metastore的功能和重要性也在不断演进。例如,在企业级应用中,Metastore的可用性和性能优化已成为数据平台稳定运行的关键保障。 Metastore可用性需求与挑战 在大数据平台中,Hive Metastore作为元数据管理的核心枢纽,其可用性已成为企业数据治理架构中不可忽视的关键要素。 数据库复制:MySQL主从复制配置 数据库层的可用是Metastore可用架构的基石。 这个案例充分证明了Metastore可用配置在大规模生产环境中的必要性。通过合理的架构设计和持续优化,不仅解决了单点故障问题,还显著提升了整体系统性能,为企业的数据治理体系提供了坚实保障。 问题3可用模式下负载均衡器(如HAProxy)导致连接不稳定 在配置了多节点Metastore可用时,负载均衡器可能成为单点故障。

    41010编辑于 2025-11-28
  • 来自专栏【腾讯云开发者】

    熔断、隔离、重试、降级、超时、限流,可用架构流量治理核心策略全掌握

    目录 1 可用性的定义 2 流量治理的目的 3 流量治理的手段 4 总结 01、可用性的定义 在探讨可用架构之前,让我们以 O2 系统为例,解释一下何谓可用性。 其整体架构概览如下: 一个完善的架构应该具备3个能力,也就是身体的“三”: 高性能; 可用; 易扩展。 02、流量治理的目的 在保障系统可用性的过程中,流量治理扮演着关键角色:它不仅帮助平衡和优化数据流,还提高了系统对不同网络条件和故障情况的适应性,是确保服务高效连续运行的不可或缺的环节. 04、总结 想要让系统长期“三”,流量治理只是众多策略的其中一个,其他还有像存储可用、缓存、负载均衡、故障转移、冗余设计、可回滚设计等等均是确保系统长期稳定运行的关键因素,笔者也期待在后续就这些策略再和大家进行分享 这些流量治理的手段不仅确保了服务的连续性和可靠性,还提高了用户体验和系统的整体效率。 最后想说,可用的本质就是面向失败设计。它基于一个现实且务实的前提:系统中的任何组件都有可能出现故障。

    3.7K46编辑于 2023-12-27
  • 来自专栏深入理解Android

    并发与可用实战

    可用 可用:相对于并发来说,可用并不是一个比较有规律的参数,7*24 是每个网站的梦想,但是你并不知道,在某一刻,他就没理由的宕机了。 并发设计原则 系统设计不仅需要考虑实现业务功能,还要保证系统并发、可用可靠等。 当服务越来越多的时候,就会需要用到服务治理,那么会用到Dubbo、SpringCloud服务治理框架 后续在深入Dubbo和SpringCloud中会详细讲到。 可用设计原则 通过负载均衡和反向代理实现分流。 通过限流保护服务免受雪崩之灾。 通过降级实现部分可用、有损服务。 通过隔离实现故障隔离。 这样就可以把一些同步调用改成异步调用,优先处理优先级数据或特殊特征的数据,合理分配进入系统的流量,以保障系统可用

    1.9K20编辑于 2022-06-22
领券