TIP二进制部署 k8s - 部署 apiserver 高可用***转载请注明出处:https://janrs.com/clw9有任何问题欢迎在底部评论区发言。! 部署 HA 高可用1.k8s 的 HA!NOTEk8s 中 master 的三大组件,其中 kube-controller-manager 与 kube-scheduler 有提供高可用机制。 因为 kube-apiserver 是无状态的应用,并且对外提供 http/https 的接口调用方式提供服务,所以可以用 nginx 来做负载均衡达到高可用。2.初始化系统环境! ,测试一下高可用是否正常。 kube-apiserver 高可用已经部署成功。也就是 k8s 高可用部署成功。转载请注明出处:https://janrs.com/clw9有任何问题欢迎在底部评论区发言。
kube-apiserver,因此它的高可用性决定了整个集群的高可用能力。 kube-apiserver 本质上是一个无状态的服务器,为了实现其高可用,通常会部署多个 kube-apiserver 实例,同时引入外部负载均衡器(以下简称 LB)进行流量代理。 社区中有一些相关工作试图解决上述问题,但均没有根治问题: 随着云原生技术的发展,目前字节跳动 95% 以上的业务跑在 Kubernetes 上,对集群高可用提出了更高的要求。 K8s 集群的请求,不同 K8s 集群通过不同的域名或者虚拟地址(vip)进行区分。 有效提高了集群的稳定性和可用性。
a、前提提条件、服务器,请查看这个地址:https://blog.csdn.net/esqabc/article/details/102726771 . . 2、搭建kube-apiserver 高可用 使用Nginx 4层实现k8s节点(master节点和worker节点)高可用,访问kube-apiserver的步骤 注意:搭建服务器,没有特殊说明,一般默认在:k8s-01 操作 a、下载编译nginx (1)把下载好的文件上传到:/opt/k8s/work [root@k8s-01 ~]# cd /opt/k8s/work 解压 [root@k8s-01 work]# tar -xzvf 添加下面内容: [Unit] Description=kube-apiserver nginx proxy After=network.target After=network-online.target fi f、启动keeplived [root@k8s-01 ~]# cd /opt/k8s/work for NODE in k8s-01 k8s-02 k8s-03; do echo "
APIserver func main() { ... completedServerRunOptions, stopCh <-chan struct{ }) (*aggregatorapiserver.APIAggregator, error) { #创建APIserver = nil { return nil, err } } #REST接口的存储定义 可以看到很多k8s上的常见定义 比如node节点/storage存储/event事件等等 restStorageProviders GenericConfig.New func (c completedConfig) New(name string, delegationTarget DelegationTarget) { #实例化一个APIserver #安装相应的APIserver installAPI(s, c.Config) } # installAPI func installAPI(s *GenericAPIServer, c *Config
{ script "/etc/keepalived/chack-apiserver.sh"//监控虚拟ip(vip)是否可用,不可用权重值就减2 interval 3 ,id 号必须相同; priority 250 //优先级,谁的优先级高谁就是master dont_track_primary //脚本执行错误与否不影响keepalived的正常运行 } } 下面是chack-apiserver.sh,主要用于检测虚拟ip是否可用 #! 使用浏览器访问30001端口,使用token登录, 记得要用火狐浏览器,微软和谷歌不支持 ,我这里是 https://192.168.200.128:30001,把自己的token 粘贴上去即可 harbor高可用安装 :v1.2.0 docker push master128:8082/k8s/nginx-ingress-controller:0.32.0 docker push master128:8082/k8s
可以看到多出了一个日志文件 /var/log/haproxy.log ,同时也打开了 UDP 的 514 端口
kubeadm安装高可用k8s集群 ---- 高可用集群规划图 ---- 主机规划 角色 IP地址 操作系统 配置 主机名称 Master1 192.168.18.100 CentOS7.x,基础设施服务器 ,如果不是高可用集群,该IP可以是k8s-master01的IP EOF ---- 时间同步 kubernetes要求集群中的节点时间必须精确一致,所以在每个节点上添加时间同步: yum install systemd" KUBE_PROXY_MODE="ipvs" 所有的节点设置为开机自启动即可,由于没有生成配置文件,集群初始化后会自动启动: systemctl enable kubelet ---- 高可用组件安装 注意:如果不是高可用集群,haproxy和keepalived无需安装。 v1.20.2 \ --service-cidr=10.96.0.0/12 \ --pod-network-cidr=10.244.0.0/16 \ --upload-certs ---- 高可用
API Server kube-apiserver 是 Kubernetes 最重要的核心组件之一,主要提供以下的功能 提供集群管理的 REST API 接口,包括认证授权、数据校验以及集群状态变更等 提供其他模块之间的数据交互和通信的枢纽(其他模块通过 API Server 查询或修改数据,只有 API Server 才直接操作 etcd) 工作原理 kube-apiserver 提供了 Kubernetes "clientCIDR": "0.0.0.0/0", "serverAddress": "10.0.1.149:443" } ] } # Outside of Pods. $ APISERVER get secrets | grep default | cut -f1 -d ' ') | grep -E '^token'| cut -f2 -d':'| tr -d '\t') $ curl $APISERVER kubectl一起使用 APIGROUP - 我们可以查看官方文档以了解更多信息,但简而言之,您将在yaml文件中使用它像apiVersion:<APIGROUP>/v1 KIND - 资源名称 VERBS - 可用的方法
前面我们在讲解各种资源的时候部署过很多集群,但是都是单机版形式的,正在生产集群是需要高可用的,所以以下就来演示一个生产高可用集群当前最新版本Kubernetes v1.32.2,为了后续部分演示所以这里启用了 3个Node节点,如果只验证高可用实际上不用Node也可以。 2.环境初始化 包括,修改主机名,hosts,关闭selinux,防火墙,时间同步,等基础配置参考我前面的部署文档Kubernetes(k8s)-安装k8s(docker版)。 dnsDomain: cluster.local podSubnet: 10.20.0.0/16 serviceSubnet: 10.10.0.0/16 proxy: {} scheduler: {} apiServer node节点链接使用vip cat /etc/kubernetes/kubelet.conf |grep server server: https://192.168.31.105:6443 11.检查高可用
cluster_formation.peer_discovery_backend = rabbit_peer_discovery_k8s cluster_formation.k8s.host = hostname K8S里, 倾向于使用 hostname 集群配置 - StatefulSet 和 Service 因为集群是有状态的, 所以需要通过K8S的Statefulset来实现集群实例部署配置 $(K8S_SERVICE_NAME). $(K8S_SERVICE_NAME). (K8S_SERVICE_NAME). K8S_HOSTNAME_SUFFIX为: .(K8S_SERVICE_NAME).
为保障应用高可用性,我们计划实施双保险策略:一方面,设计Apollo的离线配置方案,确保断网时仍能获取必要配置;另一方面,支持应用在物理机上的直接启动,作为备用方案。 为了实现高可用性,我们改进了配置加载机制。当应用重启时,组件会优先尝试从总部 Apollo 配置中心加载最新配置。 一旦发生网络异常,系统将立即降级读取本地缓存文件,从而有效隔离网络波动对应用启动的影响,保障应用始终具备高可用性。4.2 K8S 集群异常兜底,实现物理机应急启动。 五、价值总结5.1 实现系统高可用与应急能力提升尽管极端天气(如台风)或地区专线电缆意外中断不是日常事件,但它们在业务中是不可避免的风险。 这不仅提升了系统在网络完全隔离时的自愈能力,更保障了核心应用的高可用性,真正做到有备无患。
被规划为基础层,主要提供了一个高可用的7层负载均衡器。 HAProxy反代了K8S Master服务器,提供了K8S Master API的高可用和负载均衡能力。 可以使用Nginx代替HAProxy吗? Master节点的高可用拓补官方给出了两种方案。 那么master高可用至少需要2个节点,失败容忍度是(n/0)+1,也就是只要有一个是健康的k8s master集群就属于可用状态。 高可用验证 至此生产可用的k8s集群已“搭建完成”。
/.kube/completion.bash.inc' " >> $HOME/.bash_profile [root@m1 ~]# source $HOME/.bash_profile ---- 高可用集群部署 部署keepalived - apiserver高可用(任选两个master节点) 1、在两个主节点上执行如下命令安装keepalived(一主一备),我这里选择在m1和m2节点上进行安装: $ yum # 耐心等待一会,可以观察下日志 $ journalctl -f 成功将所有的worker节点加入集群后,至此我们就完成了k8s高可用集群的搭建。 root@nginx:/# ping nginx-ds PING nginx-ds.default.svc.cluster.local (10.105.139.228): 48 data bytes 高可用测试 192.168.243.100/32 scope global ens32 [root@m2 ~]# 接着测试能否在m2或m3节点上使用kubectl与集群进行交互,能正常交互则代表集群具备了一定程度的高可用性
,但不能减少) 按功能组划分 SLB LVS HAProxy etcd K8S Node (Master / Worker) SLB LVS 、HAProxy 被规划为基础层,主要提供了一个高可用的7层负载均衡器 HAProxy反代了K8S Master服务器,提供了K8S Master API的高可用和负载均衡能力。 可以使用Nginx代替HAProxy吗? Master节点的高可用拓补官方给出了两种方案。 那么master高可用至少需要2个节点,失败容忍度是(n/0)+1,也就是只要有一个是健康的k8s master集群就属于可用状态。 高可用验证 至此生产可用的k8s集群已“搭建完成”。
后续就不多说了,总之一言难尽 本文采用Kubeadm的方式,进行高可用K8s集群。 192.168.239.12 k8s-master02 192.168.239.13 k8s-master03 192.168.239.226 k8s-master-lb # 如果不是高可用集群,该IP containerd/containerd.sock" EOF 设置Kubelet开机自启动: systemctl daemon-reload systemctl enable --now kubelet 高可用实现 : icmp_seq=4 ttl=64 time=0.063 ms 集群初始化 Master01初始化 Master01节点创建kubeadm-config.yaml配置文件如下: 温馨提示:如果不是高可用集群 etcd-k8s-master03 21m 92Mi kube-system kube-apiserver-k8s-master01
RabbitMQ 高可用集群搭建 1 集群简介 1.1 集群架构 当单台 RabbitMQ 服务器的处理消息的能力达到瓶颈时,此时可以通过 RabbitMQ 集群来进行扩展,从而达到提升吞吐量的目的 一个高可用,负载均衡的 RabbitMQ 集群架构应类似下图: 这里对上面的集群架构做一下解释说明: 首先一个基本的 RabbitMQ 集群不是高可用的,虽然集群共享队列,但在默认情况下,消息只会被路由到某一个节点的符合条件的队列上 HAProxy 同时支持四层和七层负载均衡,并基于单一进程的事件驱动模型,因此它可以支持非常高的井发连接数。 此时对外服务的 VIP 依然可用,代表已经成功地进行了故障转移。 juejin.im/post/6844904071183220749 RabbitMQ 官方文档 —— 集群指南:www.rabbitmq.com/clustering.… RabbitMQ 官方文档 —— 高可用镜像队列
redis 高可用,如果是做主从架构部署,那么加上哨兵就可以了,就可以实现,任何一个实例宕机,可以进行主备切换。 所以就有了几个问题? 什么是主从架构,主从如何备份? 什么时候整个集群不可用(cluster_state:fail)? 哨兵用于实现 redis 集群的高可用,本身也是分布式的,作为一个哨兵集群去运行,互相协同工作。 哨兵 + redis 主从的部署架构,是不保证数据零丢失的,只能保证 redis 集群的高可用性。 ==怎么保证redis是高并发以及高可用的==? sdown 和 odown 转换机制 sdown 是主观宕机,就一个哨兵如果自己觉得一个 master 宕机了,那么就是主观宕机。
name: ingress-nginx app.kubernetes.io/part-of: ingress-nginx --- apiVersion: rbac.authorization.k8s.io ingress-nginx app.kubernetes.io/part-of: ingress-nginx roleRef: apiGroup: rbac.authorization.k8s.io name: nginx-ingress-serviceaccount namespace: ingress-nginx --- apiVersion: rbac.authorization.k8s.io ingress-nginx app.kubernetes.io/part-of: ingress-nginx roleRef: apiGroup: rbac.authorization.k8s.io kube-proxy转发到Ingress Controller的pod上,多走一趟路 4、不创建svc,效率最高,也能四层负载的时候不修改pod的template,唯一要注意的是`hostNetwork: true 高可用选择第四种
背景 本文记录一些高可用的内容,和数据库在高可用方面的演进过程。 1. 概念 可用性: 即软件系统在一段时间内提供 有用资源 的能力。 高可用性 描述了一个周期内的功能连续可用的绝对程度,可表示为正常运行时间和停机时间之间的关系,如下公式: A = 100 – (100*D/U) 备注:A 表示可用性;D 表示 非计划停机时间;U 表示正常运行时间 如何设计来做到高可用 保证系统高可用,架构设计的核心准则是:冗余 和 故障转移。 单点系统的问题是,挂了就完全不可用了,服务会受影响。如果有冗余备份,其他后备的系统能够顶上,保证服务继续可用。 所以,又往往是通过“自动故障转移”来使得快速切换到备份系统来实现高可用。 常见的互联网分布式架构是: 前端 ---> 反向代理 --> WEB应用 --> 服务 --> 数据库(及缓存) 其中,高可用可涉及到上面每个节点的高可用保障,我们看下数据的高可用架构的演变过程。
生产环境中,后端应用需要支持高吞吐量并且支持高可用来保证服务的稳定,因此需要高可用集群管理。 高可用需要: 至少一个 Nacos(可以是nacos集群) 至少一个 ElasticSearch / mysql(可以是es/msql集群) 至少2个skywalking oap服务; 至少1个UI(UI