首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏院长运维开发

    KubernetesPod

    扩容deployment控制器下的nginx-app的Pod的副本数 kubectl scale deployment nginx-app --replicas=3 deployment控制器下的nginx-app kubectl scale deployment nginx-app --replicas=1 扩容执行资源清单的Pod的副本数 kubectl scale --replicas=6 -f rs.yaml 执行资源清单的

    1.3K20发布于 2020-11-27
  • 来自专栏nginx遇上redis

    自定义指标2

    v1beta1", "metadata": { "selfLink": "/apis/custom.metrics.k8s.io/v1beta1/namespaces/default/pods/%2A

    42920编辑于 2023-09-01
  • 来自专栏运维小路

    kvm-cpu

    由于涉及到内容较多,这里的目录就只是以简单分类介绍和说明,不再针对单个小节进行目录列出,主要涉及的分类包括以下几个方面: 1.虚拟化介绍 2.kvm基本使用 3.kvm进阶使用(本小节属于) 4.kvm KVM(Kernel-based Virtual Machine)环境下虚拟机的操作通常指的是调整虚拟机的资源(如CPU、内存、磁盘空间)。 这些操作可以分为两类:在线(也称为热添加或热调整)和离线(也称为冷调整)。 下面分别介绍这两种情况下的操作方法: 在线 (Hot Plugging) 扩容 增加CPU核心数: 使用virsh setvcpus <domain> <cpu-count> --live命令可以在线增加 注意:操作需要慎重,尤其是生产环境。 离线 (Cold Adjusting) 离线实际上和在线一样,并不区分扩容和,因为他是通过修改配置文件实现的,只是修改方式有两种而已。

    74810编辑于 2024-11-01
  • 来自专栏玖叁叁

    自动HPA实践(二)

    MAXPODS REPLICAS AGEnginx-hpa Deployment/nginx-deploy 0%/50% 1 10 1 2m

    1K11编辑于 2023-04-30
  • 来自专栏运维小路

    kvm-内存&磁盘

    技术原理 5.vmware介绍&使用 6.小结 KVM(Kernel-based Virtual Machine)环境下虚拟机的操作通常指的是调整虚拟机的资源(如CPU、内存、磁盘空间)。 这些操作可以分为两类:在线(也称为热添加或热调整)和离线(也称为冷调整)。 离线调整内存和cpu离线调整实际上是一样的,并不区分扩容和,因为他是通过修改配置文件实现的,修改方法和修改cpu一样,具体修改方法参考kvm-cpu #memory 是虚拟机最大内存 <memory unit='KiB'>2097152</memory> <currentMemory unit='KiB'>2097152</currentMemory> 磁盘 严格来说磁盘并不属于 注:一般而言,我们磁盘只做扩容操作,不做操作。

    1K10编辑于 2024-11-01
  • 来自专栏玖叁叁

    自动HPA实践(一)

    概述在Kubernetes中,HPA(Horizontal Pod Autoscaler)是一种自动应用程序的方式,可以根据应用程序负载动态调整Pod副本数量。 示例在本示例中,我们将创建一个简单的web应用程序,并使用HPA来自动。 使用以下命令创建Deployment和Service:kubectl apply -f nginx.yaml步骤2:创建HPA现在,我们将创建一个HPA,以根据CPU使用率自动Deployment

    84710编辑于 2023-04-30
  • 来自专栏k8s技术圈

    优化 Kubernetes 横向 HPA

    图片来源: instagram.com/febin_raj Pod水平自动(Horizontal Pod Autoscaler, 简称HPA)可以基于 CPU/MEM 利用率自动Deployment 、StatefulSet 中的 Pod 数量,同时也可以基于其他应程序提供的自定义度量指标来执行自动。 HPA Resource类型不足 默认HPA提供了Resource类型,通过CPU/MEM使用率指标(由metrics-server提供原始指标)来应用。 好在1.20版本中已经支持了ContainerResource可以配置基于某个容器的资源使用率来进行,如果是之前的版本建议使用自定义指标替换。 另外,hpa核心的算法根据当前指标和期望指标来计算比例,并不适合所有场景,只使用线性增长的指标。

    2.6K30发布于 2021-06-25
  • 来自专栏panzhixiang

    k8s水平

    关于水平扩容和不在这里做解释,有兴趣看这篇文章的人应该都已经知道了。 最好的教程其实还是官网,这里放上相关的链接: 比较高视角介绍水平(HPA) 如果想比较全面的了解HPA可以看看这篇文章 https://kubernetes.io/zh/docs/tasks/run-application HPA配置说明 apiVersion: autoscaling/v2beta2 kind: HorizontalPodAutoscaler metadata: name: <hpa-name> spec ReplicationController、Deployment、ReplicaSet 和 StatefulSet 这些类型 kind: Deployment name: <打算进行自动配置的资源的名字

    45510编辑于 2024-10-30
  • 来自专栏YeTechLog

    【kubevirt】VirtualMachineInstanceReplicaSet(vmis)--弹性伸缩

    我们可以这样理解,vmis就是kubernetes(k8s)里面的控制器(DeployMent,ReplicaSet)管理我们pod的副本数,实现、回滚等。 这里我们就说vmis控制器,在这里的vmis控制器,管理我们vmi虚拟机实例的副本数,也可以实现,借助hpa实现弹性伸缩。所有我们的yaml文件写法原理都类似。 2/2 Running 0 69s virt-launcher-testreplicasetbqxnb-ljp2f 2/2 Running 0 virtualmachinereplicaset-controller Started the virtual machine by creating the new virtual machine instance testreplicasetw75s4 2 Running 0 3m15s virt-launcher-testreplicasetddqc9-6c2m4 2/2 Running 0

    1.9K00编辑于 2022-05-02
  • 来自专栏瓜农老梁

    RocketMQ集群平滑【实战笔记】

    目录 一、运维需求 二、平滑扩容 1.下线从节点 2.重组主从模式 三、平滑 1.关闭broker写权限 2.验证broker流量情况 3.验证broker积压情况 4.节点下线 四、问题答疑 一、运维需求 在 RocketMQ 集群的实践中,对集群扩容、、节点下线等运维做到平滑、业务无感知、数据无丢失,这个对于集群运维的同学来说非常重要。 2.重组主从模式 新申请4台机器与原从节点重新组合成主从关系。 三、平滑 接下来主要是将装有centos6内核的旧机器从集群中移除,具体操作如下。 通常线上集群的存储时间为2~3天;可以在过了存储时间后再安排下线。

    2.9K40发布于 2020-05-08
  • 来自专栏charlieroro

    Airbnb的动态kubernetes集群

    Airbnb的动态kubernetes集群 本文介绍了Airbnb的集群的演化历史,以及当前是如何通过Cluster Autoscaler 实现自定义扩展器的。 我们每天的流量波动都非常大,需要依靠动态来保证服务的正常运行。 为了支持,Airbnb使用了Kubernetes编排系统。 这些演进可以划分为如下几个阶段: 阶段1:异构集群,手动扩容 阶段2:多集群类型,独立 阶段3:异构集群,自动 阶段1:异构集群,手动 在使用Kubernetes之前,每个服务实例都运行在其所在的机器上 阶段2:多集群类型,独立 集群配置的第二个阶段是伴随多负载类型出现的,每个试图在Kubernetes上运行的负载都有着不同的需求。为了符合这些需求,我们创建了一个抽象的集群类型。" 通过这种额外的负载灵活性,我们可以有更多的空间来在默认的Cluster Autoscaler扩展逻辑之外,实现成熟的策略。特别地,我们计划实现与Airbnb特定业务逻辑相关的逻辑。

    1.1K40编辑于 2022-09-09
  • 来自专栏CNCF

    Kubernetes HPA级别配置预览

    2倍,要么扩大4个 pod,二者取大者。 结合前述的背景,不难得出,本次改进目标有两点: 允话用户(更精确)的控制速度; 允话用户在 HPA 层面控制速度(每个HPA可以有个性化的控制); 新特性设计 ? percent (百分比) 顾名思义,这个是控制的百分比,可以简单的理解成把硬编码的 scaleUpLimitFactor = 2.0 改成可配置项。 pods (个数) 这个是控制每个的绝对个数,可以简单的理解成把硬编码的 scaleUpLimitMinimum = 4.0 改成可配置项。 Story 2: 我希望应用能尽快的扩容、逐步的 当希望应用能尽快的扩容,同时的慢一些时,可以使用如下配置: scaleUp percent = 900 scaleDown pods = 1 (

    1.8K10发布于 2019-12-05
  • 来自专栏中间件兴趣圈

    RocketMQ集群平滑【实战笔记】

    一、运维需求 在 RocketMQ 集群的实践中,对集群扩容、、节点下线等运维做到平滑、业务无感知、数据无丢失,这个对于集群运维的同学来说非常重要。 2.重组主从模式 新申请4台机器与原从节点重新组合成主从关系。 三、平滑 接下来主要是将装有centos6内核的旧机器从集群中移除,具体操作如下。 ignoring option MaxPermSize=128m; support was removed in 8.0 update broker config success, x.x.x.x:10911 2. 通常线上集群的存储时间为2~3天;可以在过了存储时间后再安排下线。

    3.2K31发布于 2020-05-08
  • 来自专栏网络安全技术点滴分享

    Kubernetes Autoscaler 集群自动工具

    功能特性智能:自动增加节点以容纳无法调度的 Pod自动移除未充分利用的节点支持多种策略和算法多组件协作:与 Horizontal Pod Autoscaler 协同工作支持多种资源类型和约束条件灵活配置 :可配置延迟和阈值支持自定义指标和策略多平台支持:支持主流云服务商提供 Helm charts 简化部署安装指南使用 Helm 安装 Cluster Autoscaler# 添加 Helm 仓库helm install my-release autoscaler/cluster-autoscaler \ --set 'autoDiscovery.clusterName'=<CLUSTER NAME># 方法2 extra-memory", "10Mi", "每个节点额外内存量")scaleDownDelay = flag.Duration("scale-down-delay", 10*time.Minute, "延迟时间 kube_client.Interface, namespace, deployment, pod, container string) KubernetesClient {// 初始化各种 Lister 和 Client}自动核心逻辑

    34700编辑于 2025-08-01
  • 来自专栏腾讯大讲堂的专栏

    英雄联盟自动化利器

    去年,扩容相关工作占到占据了英雄联盟运维较多的工作时长,这使得致力于提升用户体验的英雄联盟运维团队在年初就已经着手研究如何实现自动化。 关于自动化利器的用户交互,主要用的是类似汽车的仪表盘的形式来展示相关时实施人员比较关心的数据。如图(2) ? 所向披靡-无所不能的容量云: 二期功能加入了监控和自动触发、等功能,真正实现采集性能数据、按照模型分析出结论、实施、性能数据达标等一系列操作,流程上把容量管理这件事做成闭环。 自动采集数据、分析出决策、实施操作的整体流程架构图如下: ? “”是二期项目中的一个新增的功能模块,的逻辑是这样: 在自定义的时间周期内,判断是否需要,然后实施步骤 同样也是有一套自己的判断逻辑的。

    2.4K100发布于 2018-02-11
  • 来自专栏nginx遇上redis

    自定义指标进行(1)

    [root@k8s-master pki]# (umask 077; openssl genrsa -out serving.key 2048)

    39220编辑于 2023-09-01
  • 来自专栏charlieroro

    kubernetes实现用户自定义

    本文章主要参考walkthrough,aggregation和auth。涉及custom metric API的注册认证以及API server aggregation的相关知识。walkthrough中主要实现了Prometheus adapter的功能,Prometheus adapter主要从Prometheus以一定间隔收集可用的metrics,然后以特定的格式暴露该metrics。

    1.2K50发布于 2020-03-24
  • 来自专栏老铁丁D

    k8s滚动升级和

    一、 手动扩容 k8s使用过kubectl scale命令进行扩容 假设原本的pod有3个,这个时候由于业务的增长,我们可以将pod增加到5个 kubectl scale rc blog --replicas 算法 最终pod的数量=ceil[当前的pod数量*(当前性能指标数/期望性能性能指标数)] ceil向上取整 比如:当前的cpu使用率是60%,但是我期望的是30%,并且当前已经存在2个pod了 10%),表示基于上 述算法得到的结果在[-10%-+10%]区间内,即[0.9-1.1],控制器都不会进 行操作。 HorizontalPodAutoscaler k8s提供HorizontalPodAutoscaler资源对象,让我们可以使用它进行配置的规则。 HorizontalPodAutoscaler有两个版本,autoscaling/v1 只支持CPU使用率的指标数,autoscaling/v2则用于支持基于任意指标的自动配置,包括基于资源使用率

    2.3K30编辑于 2022-08-12
  • 来自专栏院长运维开发

    K8s设置Pod自动

    kubectl autoscale rc mysql-slave --min=1 --max=10 --cpu-percent=50 参数: --min (容器数量下限) --max (容器数量上限) --cpu-percent (CPU使用率达到指定百分比) 容器CPU使用率上升至50%以上时,自动扩充容器数量 容器CPU使用率下降至50%以上时,自动缩减容器数量

    87710发布于 2021-02-19
  • YashanDB自动功能实现原理及应用

    YashanDB架构概览及支持YashanDB具备三种部署形态:单机主备部署、分布式集群部署和共享集群部署。每种部署形态在自动设计上具有不同的挑战与实现方案。 共享集群的不仅涉及节点增减,还包括共享缓存及资源目录的同步管理。2. 自动的核心技术原理2.1 资源动态感知与监控机制实现自动的第一步是精准感知系统运行时资源负载。 结合负载趋势预测模型,实现负载异常预警,从而触发决策。 YashanDB自动的应用场景自动主要应用于以下典型场景:业务流量波动明显的电商、金融等在线交易系统,在峰值时期自动扩容节点,低谷期自动回收,从而保证系统性能和成本效率。 合理设置阈值与策略:基于业务特征及资源利用率合理设置扩容与触发阈值,避免频繁带来的额外开销与风险。

    24810编辑于 2025-09-29
领券