首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏院长运维开发

    KubernetesPod

    扩容deployment控制器下的nginx-app的Pod的副本数 kubectl scale deployment nginx-app --replicas=3 deployment控制器下的nginx-app kubectl scale deployment nginx-app --replicas=1 扩容执行资源清单的Pod的副本数 kubectl scale --replicas=6 -f rs.yaml 执行资源清单的

    1.3K20发布于 2020-11-27
  • 来自专栏运维小路

    kvm-cpu

    KVM(Kernel-based Virtual Machine)环境下虚拟机的操作通常指的是调整虚拟机的资源(如CPU、内存、磁盘空间)。 这些操作可以分为两类:在线(也称为热添加或热调整)和离线(也称为冷调整)。 下面分别介绍这两种情况下的操作方法: 在线 (Hot Plugging) 扩容 增加CPU核心数: 使用virsh setvcpus <domain> <cpu-count> --live命令可以在线增加 define /etc/libvirt/qemu/kvm31.202.xml Domain 'kvm31.202' defined from /etc/libvirt/qemu/kvm31.202.xml 注意:操作需要慎重,尤其是生产环境。 离线 (Cold Adjusting) 离线实际上和在线一样,并不区分扩容和,因为他是通过修改配置文件实现的,只是修改方式有两种而已。

    70810编辑于 2024-11-01
  • 来自专栏玖叁叁

    自动HPA实践(二)

    现在,我们可以测试HPA是否按预期工作。为此,我们可以使用Apache Bench(ab)来模拟负载。我们将使用以下命令运行ab:

    1K11编辑于 2023-04-30
  • 来自专栏玖叁叁

    自动HPA实践(一)

    概述在Kubernetes中,HPA(Horizontal Pod Autoscaler)是一种自动应用程序的方式,可以根据应用程序负载动态调整Pod副本数量。 示例在本示例中,我们将创建一个简单的web应用程序,并使用HPA来自动。 使用以下命令创建Deployment和Service:kubectl apply -f nginx.yaml步骤2:创建HPA现在,我们将创建一个HPA,以根据CPU使用率自动Deployment

    84410编辑于 2023-04-30
  • 来自专栏运维小路

    kvm-内存&磁盘

    虚拟化介绍 2.kvm基本使用 3.kvm进阶使用(本小节属于) 4.kvm技术原理 5.vmware介绍&使用 6.小结 KVM(Kernel-based Virtual Machine)环境下虚拟机的操作通常指的是调整虚拟机的资源 这些操作可以分为两类:在线(也称为热添加或热调整)和离线(也称为冷调整)。 离线调整内存和cpu离线调整实际上是一样的,并不区分扩容和,因为他是通过修改配置文件实现的,修改方法和修改cpu一样,具体修改方法参考kvm-cpu #memory 是虚拟机最大内存 <memory unit='KiB'>2097152</memory> <currentMemory unit='KiB'>2097152</currentMemory> 磁盘 严格来说磁盘并不属于 注:一般而言,我们磁盘只做扩容操作,不做操作。

    1K10编辑于 2024-11-01
  • 来自专栏k8s技术圈

    优化 Kubernetes 横向 HPA

    图片来源: instagram.com/febin_raj Pod水平自动(Horizontal Pod Autoscaler, 简称HPA)可以基于 CPU/MEM 利用率自动Deployment 、StatefulSet 中的 Pod 数量,同时也可以基于其他应程序提供的自定义度量指标来执行自动。 HPA Resource类型不足 默认HPA提供了Resource类型,通过CPU/MEM使用率指标(由metrics-server提供原始指标)来应用。 好在1.20版本中已经支持了ContainerResource可以配置基于某个容器的资源使用率来进行,如果是之前的版本建议使用自定义指标替换。 另外,hpa核心的算法根据当前指标和期望指标来计算比例,并不适合所有场景,只使用线性增长的指标。

    2.6K30发布于 2021-06-25
  • 来自专栏YeTechLog

    【kubevirt】VirtualMachineInstanceReplicaSet(vmis)--弹性伸缩

    我们可以这样理解,vmis就是kubernetes(k8s)里面的控制器(DeployMent,ReplicaSet)管理我们pod的副本数,实现、回滚等。 这里我们就说vmis控制器,在这里的vmis控制器,管理我们vmi虚拟机实例的副本数,也可以实现,借助hpa实现弹性伸缩。所有我们的yaml文件写法原理都类似。 virtualmachinereplicaset-controller Started the virtual machine by creating the new virtual machine instance testreplicasetw75s4

    1.9K00编辑于 2022-05-02
  • 来自专栏panzhixiang

    k8s水平

    关于水平扩容和不在这里做解释,有兴趣看这篇文章的人应该都已经知道了。 最好的教程其实还是官网,这里放上相关的链接: 比较高视角介绍水平(HPA) 如果想比较全面的了解HPA可以看看这篇文章 https://kubernetes.io/zh/docs/tasks/run-application ReplicationController、Deployment、ReplicaSet 和 StatefulSet 这些类型 kind: Deployment name: <打算进行自动配置的资源的名字

    44710编辑于 2024-10-30
  • 来自专栏瓜农老梁

    RocketMQ集群平滑【实战笔记】

    目录 一、运维需求 二、平滑扩容 1.下线从节点 2.重组主从模式 三、平滑 1.关闭broker写权限 2.验证broker流量情况 3.验证broker积压情况 4.节点下线 四、问题答疑 一、运维需求 在 RocketMQ 集群的实践中,对集群扩容、、节点下线等运维做到平滑、业务无感知、数据无丢失,这个对于集群运维的同学来说非常重要。 三、平滑 接下来主要是将装有centos6内核的旧机器从集群中移除,具体操作如下。

    2.8K40发布于 2020-05-08
  • 来自专栏CNCF

    Kubernetes HPA级别配置预览

    :该类应用希望当大量数据到达时希望快速扩容,在数据减少时,希望快速的,以节省成本; 常规流量/数据处理应用:该类应用不那么重要,可以缓慢的扩容和,以避免快速带来抖动; 而当前版本的实现(1.15 结合前述的背景,不难得出,本次改进目标有两点: 允话用户(更精确)的控制速度; 允话用户在 HPA 层面控制速度(每个HPA可以有个性化的控制); 新特性设计 ? 有个参数(--horizontal-pod-autoscaler-sync-period) 控制的是 HPA controller 处理周期,每个周期中处理所有的 HPA(为HPA生成建议,并执行 percent (百分比) 顾名思义,这个是控制的百分比,可以简单的理解成把硬编码的 scaleUpLimitFactor = 2.0 改成可配置项。 pods (个数) 这个是控制每个的绝对个数,可以简单的理解成把硬编码的 scaleUpLimitMinimum = 4.0 改成可配置项。

    1.8K10发布于 2019-12-05
  • 来自专栏charlieroro

    Airbnb的动态kubernetes集群

    Airbnb的动态kubernetes集群 本文介绍了Airbnb的集群的演化历史,以及当前是如何通过Cluster Autoscaler 实现自定义扩展器的。 我们每天的流量波动都非常大,需要依靠动态来保证服务的正常运行。 为了支持,Airbnb使用了Kubernetes编排系统。 这些演进可以划分为如下几个阶段: 阶段1:异构集群,手动扩容 阶段2:多集群类型,独立 阶段3:异构集群,自动 阶段1:异构集群,手动 在使用Kubernetes之前,每个服务实例都运行在其所在的机器上 在这个阶段,我们实现了集群的手动,但相比之前仍然有着显著的提升。 通过这种额外的负载灵活性,我们可以有更多的空间来在默认的Cluster Autoscaler扩展逻辑之外,实现成熟的策略。特别地,我们计划实现与Airbnb特定业务逻辑相关的逻辑。

    1.1K40编辑于 2022-09-09
  • 来自专栏nginx遇上redis

    自定义指标(2)

    podinfo应用暴露了一个名为http_requests_total的自定义metric。Prometheas适配器删除_total后缀,并将度量标记为计数器度量(counter metric)。 从自定义metrics API中获取每秒请求总数:

    42420编辑于 2023-09-01
  • 来自专栏网络安全技术点滴分享

    Kubernetes Autoscaler 集群自动工具

    功能特性智能:自动增加节点以容纳无法调度的 Pod自动移除未充分利用的节点支持多种策略和算法多组件协作:与 Horizontal Pod Autoscaler 协同工作支持多种资源类型和约束条件灵活配置 :可配置延迟和阈值支持自定义指标和策略多平台支持:支持主流云服务商提供 Helm charts 简化部署安装指南使用 Helm 安装 Cluster Autoscaler# 添加 Helm 仓库helm extra-memory", "10Mi", "每个节点额外内存量")scaleDownDelay = flag.Duration("scale-down-delay", 10*time.Minute, "延迟时间 kube_client.Interface, namespace, deployment, pod, container string) KubernetesClient {// 初始化各种 Lister 和 Client}自动核心逻辑

    33900编辑于 2025-08-01
  • 来自专栏中间件兴趣圈

    RocketMQ集群平滑【实战笔记】

    一、运维需求 在 RocketMQ 集群的实践中,对集群扩容、、节点下线等运维做到平滑、业务无感知、数据无丢失,这个对于集群运维的同学来说非常重要。 三、平滑 接下来主要是将装有centos6内核的旧机器从集群中移除,具体操作如下。

    3.2K31发布于 2020-05-08
  • 来自专栏腾讯大讲堂的专栏

    英雄联盟自动化利器

    去年,扩容相关工作占到占据了英雄联盟运维较多的工作时长,这使得致力于提升用户体验的英雄联盟运维团队在年初就已经着手研究如何实现自动化。 关于自动化利器的用户交互,主要用的是类似汽车的仪表盘的形式来展示相关时实施人员比较关心的数据。如图(2) ? 所向披靡-无所不能的容量云: 二期功能加入了监控和自动触发、等功能,真正实现采集性能数据、按照模型分析出结论、实施、性能数据达标等一系列操作,流程上把容量管理这件事做成闭环。 自动采集数据、分析出决策、实施操作的整体流程架构图如下: ? “”是二期项目中的一个新增的功能模块,的逻辑是这样: 在自定义的时间周期内,判断是否需要,然后实施步骤 同样也是有一套自己的判断逻辑的。

    2.4K100发布于 2018-02-11
  • 来自专栏nginx遇上redis

    自定义指标进行(1)

    [root@k8s-master pki]# (umask 077; openssl genrsa -out serving.key 2048)

    39120编辑于 2023-09-01
  • 来自专栏charlieroro

    kubernetes实现用户自定义

    本文章主要参考walkthrough,aggregation和auth。涉及custom metric API的注册认证以及API server aggregation的相关知识。walkthrough中主要实现了Prometheus adapter的功能,Prometheus adapter主要从Prometheus以一定间隔收集可用的metrics,然后以特定的格式暴露该metrics。

    1.2K50发布于 2020-03-24
  • 来自专栏院长运维开发

    K8s设置Pod自动

    kubectl autoscale rc mysql-slave --min=1 --max=10 --cpu-percent=50 参数: --min (容器数量下限) --max (容器数量上限) --cpu-percent (CPU使用率达到指定百分比) 容器CPU使用率上升至50%以上时,自动扩充容器数量 容器CPU使用率下降至50%以上时,自动缩减容器数量

    87710发布于 2021-02-19
  • YashanDB自动功能实现原理及应用

    YashanDB架构概览及支持YashanDB具备三种部署形态:单机主备部署、分布式集群部署和共享集群部署。每种部署形态在自动设计上具有不同的挑战与实现方案。 共享集群的不仅涉及节点增减,还包括共享缓存及资源目录的同步管理。2. 自动的核心技术原理2.1 资源动态感知与监控机制实现自动的第一步是精准感知系统运行时资源负载。 结合负载趋势预测模型,实现负载异常预警,从而触发决策。 YashanDB自动的应用场景自动主要应用于以下典型场景:业务流量波动明显的电商、金融等在线交易系统,在峰值时期自动扩容节点,低谷期自动回收,从而保证系统性能和成本效率。 合理设置阈值与策略:基于业务特征及资源利用率合理设置扩容与触发阈值,避免频繁带来的额外开销与风险。

    24210编辑于 2025-09-29
  • 来自专栏crossoverJie

    在 kubernetes 环境下如何优雅 Pulsar

    根据对线上流量、存储以及系统资源的占用,发现我们的 Pulsar 集群有许多的冗余,所以考虑进行从而减少资源浪费,最终也能省一些费用。 其实本文的重点在于,特别是 Bookkeeper 的,这部分内容我在互联网上很少看到有人提及。 Broker Broker 的相对简单,因为存算分离的特点:broker 作为计算层是无状态的,并不承载任何的数据。 不然就无法满足之前提到的 Write quorum size (QW) 要求;因此还有一个潜在条件需要满足: 后的 Bookkeeper 节点数量需要大于broker 中的配置: managedLedgerDefaultEnsembleSize 总结 总的来说 Pulsar 的还是非常简单的,只是对于有状态节点的数据迁移稍微复杂一些,但只要跟着流程走就不会有什么问题。

    75510编辑于 2024-04-10
领券