首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏云原生生态圈

    原生工具集 · 管理集群Kubeconfig

    背景 做为一个k8s的学习或者使用者,避免不了会操作不同的k8s集群,每次操作不同集群的时候,可能都会使用--kubeconfig指定要操作集群的配置文件,这样显得格外的麻烦,我使用过一段时间的alias ,通过alias做命令别名,但是依旧不是那么清爽,前段时间看到一个kubecm[1]工具,简洁高效,解决了集群切换以及kubeconfig文件内容管理的问题。 kubecm switch切换集群或者切换用户角色 ?

    1.1K20发布于 2021-06-10
  • 来自专栏云云众生s

    原生PG管理的PostgresSQL集群混沌测试

    深入研究在 Kubernetes 上由 CloudNativePG 管理的 PostgreSQL 集群的混沌测试。学习如何有效地测试高可用性并使用 Coroot 监控性能。 随着越来越多的组织将其数据库迁移到原生环境,有效地管理和监控这些系统变得至关重要。 它还通过其Operator框架允许自动化备份、高可用性和扩展等任务,从而实现更好的数据库管理。这提供了类似于使用AWS RDS等托管服务的管理体验,但没有厂商锁定,并且成本通常更低。 接下来,在集群规范中提供为 Coroot 配置的凭据。Coroot 的集群代理将从集群中的每个实例收集 Postgres 指标。 CloudNativePG负责数据库管理的繁重工作,例如备份和故障转移,而Coroot则使一切保持可见并易于排查故障。两者结合,可以轻松应对实际问题,并确保您的数据库在原生环境中平稳运行。

    75110编辑于 2025-01-18
  • 来自专栏CNCF

    集群原生安全

    作者:Pushkar Joglekar 在过去的几年中,一个关注安全的小型社区一直在努力工作,以加深我们对安全的理解,并给出了不断发展的原生基础设施和相应的迭代部署实践。 相反,其目的是将安全性建模并注入原生应用生命周期的四个逻辑阶段:开发、分发、部署和运行时。 ? Kubernetes原生安全控制 当使用Kubernetes作为工作负载协调器时,这个版本的白皮书推荐的一些安全控制如下: Pod安全策略:为整个集群的“最少特权”工作负载实现一个真实源 资源请求和限制 秘密管理:与内置或外部秘密存储集成 原生互补安全控制 Kubernetes直接参与部署阶段,较少参与运行时阶段。 意识到“做事方式”的这种根本性变化,促使我们从原生的角度来看待安全问题。

    86210发布于 2020-11-25
  • 来自专栏mazhen.tech

    使用kubectl管理集群

    context是访问一个kubernetes集群所需要的参数集合。 每个context有三个参数: cluster:要访问的集群信息 namespace:用户工作的namespace,缺省值为default user:连接集群的认证用户 缺省情况下,kubectl会使用 在不了解context的概念之前,想访问不同的集群,每次都要把集群对应的config文件copy到$HOME/.kube目录下,同时要记得使用kubectl cluster-info确认当前访问的集群: 在看了这篇文档后,才知道kubectl可以切换context来管理多个集群。 看吧,kubectl切换context管理集群是多么的方便。

    55910编辑于 2023-11-24
  • 来自专栏腾讯云容器运维

    KubeSphere管理tke集群

    除此之外,平台已经整合并优化了多个适用于容器场景的功能模块,以完整的解决方案帮助企业轻松应对敏捷开发与自动化运维、微服务治理、租户管理、工作负载和集群管理、服务与网络管理、应用编排与管理、镜像仓库管理和存储管理等业务场景 如今,各种组织跨不同的厂商或者在不同的基础设施上运行和管理多个 Kubernetes 集群的做法非常普遍。 由于每个 Kubernetes 集群都是一个相对独立的单元,上游社区正在艰难地研究和开发集群管理解决方案。 KubeSphere的集群管理架构如下,只能有一个 H 集群存在,而多个 M 集群可以同时存在。在集群架构中,H 集群和 M 集群之间的网络可以直接连接,或者通过代理连接。 M 集群之间的网络可以设置在完全隔离的环境中。 下面我们来实践下KubeSphere来管理多个tke集群。 1.

    1.3K10发布于 2021-08-08
  • 来自专栏腾讯云原生团队

    Clusternet:一款开源的跨集群原生管控利器!

    摘要 Clusternet (Cluster Internet)是一个兼具集群管理和跨集群应用编排的开源原生管控平台,解决了跨、跨地域、跨可用区的集群管理问题。 在项目规划阶段,就是面向未来混合、分布式云和边缘计算等场景来设计的,支持海量集群的接入和管理、应用分发、流量治理(开发中)等。 ,就可以对集群进行管理和应用分发了。 重磅介绍 【燎原社】推出了专业而又系统的线下原生技术实战营,需要系统化深入学习的同学,可扫码报名原生技术实战营课程,腾讯技术专家现场教学,3天搞定原生容器化改造过程中的实际问题,扫码一键直达:   往期精选推荐   20+原生最佳案例实践,企业上的秘诀都在这儿 使用 Velero 跨平台迁移集群资源到 TKE TKE 用户故事 | 作业帮 Kubernetes 原生调度器优化实践

    1.8K10编辑于 2022-01-21
  • 来自专栏CS实验室

    Kubernetes 集群管理:Kubefed

    Kubernetes 集群管理:Kubefed Kubefed(Federation v2)即 Kubernetes 联邦,是目前社区正在难产的集群解决方案,目前的版本是 0.1.0,如果考虑到 Controller Manager 协调不同集群之间的状态,通过与成员集群的 Api Server 通讯,来统筹管理所有的 Kubernetes 成员集群。 Federation v1 整体的架构和 Kubernetes 自身的架构还是很像的,并将成员集群作为一种资源进行管理。 本来资源设计的就非常不灵活,加之 RBAC 的支持问题,使得无法做到集群资源的权限管理,因而流产,并为 v2 积累了宝贵的教训。 kubefedctl join 使得成员集群加入到主集群(Host Cluster) Member Cluster:通过 KubeFed API 注册为成员并受 KubeFed 管理集群,主集群(Host

    1.8K10发布于 2021-03-22
  • 来自专栏CNCF

    Kubernetes集群管理之路

    本文主要讲述了一些对于Kubernetes集群管理的思考,包括为什么需要集群集群的优势以及现有的一些基于Kubernetes衍生出的集群管理架构。 作者:王琦, 中国移动能力中心软件开发工程师,专注于原生、Istio、微服务、Spring Cloud 等领域。 l多云(Multi-Clund)和混合(Hybird Cloud)的实际业务场景:随着原生技术的不断发展,以及为了避免独立供应商带来的锁定、成本等问题,企业基于多云和混合架构搭建集群使用场景的方式愈发普遍 4.1 Karmada架构 图4 karmada架构 Karmada管理的多云和混合集群环境包含两类集群: lHost集群:由karmada控制面构成的集群,接受用户提交的应用部署需求,将之同步到 Kubernetes原生API定义,包括CRD。无需修改即可创建集群应用。 lPropagation Policy:分发策略。可重用的应用集群调度策略。

    2.4K21编辑于 2022-11-28
  • 来自专栏云云众生s

    原生集群用户界面,适用于Cloud Foundry和Kubernetes

    将Stratos(一个集群UI)添加到Backstage开发者门户框架的实践指南 译自 Backstage Multicluster UI for Cloud Foundry and Kubernetes 在本文中,我将展示如何将Stratos——一个支持Cloud Foundry、Kubernetes、EKS、AKS、GKE等的开源集群UI——集成到Backstage中。 虽然有很多Backstage插件,但它们可以分为两大类:前端插件在Backstage应用程序上显示UI,后端插件管理服务器端操作。 将Stratos集成到Backstage中,可以提供集群Cloud Foundry和Kubernetes环境的简化、集中视图,从而简化基础设施管理

    55210编辑于 2024-12-17
  • 来自专栏云计算与大数据

    原生|Kubernetes 集群升级指南

    我们可以通过集群升级功能充分享受活跃的 Kubernetes 开源社区带来的发展红利; 对于 Kubernetes 集群的运维者:通过集群升级功能可以拉齐所管理集群版本,减少集群版本的碎片化,从而减少 Kubernetes 版本碎片化带来的管理成本和维护成本。 ,可能会造成“千集群千面”; 对于上运行的 Kubernetes 集群来说,其使用了大量的计算底层资源。 资源检查 运行在上的 Kubernetes 集群依赖着众多云资源,一旦集群所依赖的资源不健康或者配置错误,就会影响到整个集群的正常运行。 阿里容器服务 Kubernetes 为客户提供的集群升级就是基于这种方式的。 以将 Kubernetes 的版本从 1.14 升级到 1.16 为例。

    1.1K30发布于 2020-10-23
  • 来自专栏云原生技术文章

    基于腾讯TKE容器集群原生Kong网关实现租户架构方案

    3 本节内容本节内容做为租户系列方案的第一篇,会介绍如何采用腾讯的TKE容器集群原生Kong网关实现租户的应用架构。关于租户方案的其他部分会在后续章节中介绍。 ,业内首创单个集群兼容多种计算节点的容器资源管理模式。 原生API网关作为上微服务架构的流量入口,集成请求分发、API 管理、流量监控、访问限制等功能,是微服务架构中的重要组件。 5.1 基于服务的网关租户方案原生Kong网关中的网关服务可以直接关联后端TKE集群上的服务,并配置路由策略,配置后从Kong网关的管理台可以看到后端TKE容器集群上的服务列表,如下图:图片该方案适用于上一章节中基于容器命名空间的隔离 图片6 小结在本章节中,我们介绍基于腾讯TKE容器集群原生Kong网关实现的租户架构方案,适用于原生的微服务容器化的租户应用。后续我们会持续介绍更多的租户方案。

    1.6K70编辑于 2023-05-16
  • 来自专栏腾讯开源的专栏

    原生领域再添重磅开源项目:腾讯发布 K8s 集群管理开源项目 Clusternet

    11月4日,在腾讯数字生态大会上,腾讯宣布了原生领域一项重磅开源进展—— K8s 集群管理项目 Clusternet 正式开源。 Clusternet 由腾讯联合多点生活、QQ音乐、富途证券、微众银行、酷狗音乐、三七互娱等共同发起,专注 K8s 集群管理和应用治理方向,希望让管理集群就像上网一样简单。 通过 Clusternet,无论集群是运行在公有、私有、混合还是边缘上,都可以获得统一的管理和一致的访问体验,实现 K8s API 集中部署和集群的应用程序和服务的协同调度。 遵循原生理念全新设计架构,Clusternet 完全兼容原生 K8s 资源,方便业务快速集成和使用。 更通过腾讯原生分布式云中心 TDCC 产品为用户提供一站托管式集群管理和应用治理服务,将成熟稳定的服务交付至更靠近用户和数据的位置,保证长期的平台运营、治理、更新和演进,并且提供可靠性和安全合规保证

    1K30发布于 2021-11-10
  • 来自专栏2022

    使用kubectl配置集群管理

    大家都知道kubectl主要用来管理kubernetes集群,但当我们的环境中有套kubernetes集群时,该如何进行管理呢,下面列出了通过配置kubeconfig来实现kubectl管理集群的方法 一、使用kubeclt合并多个config 这里假设当前客户端已配置一个集群的访问凭证, 即~/.kube/config 里已包含一套集群的访问凭证,那么我们可以将另一套集群的访问凭证上传到/tmp,并命名为 test-config,然后执行以下命令以合并多个集群的config。 四、总结 三种配置方法我倾向于使用第二种,当需要管理集群时配置起来也比较简单,值得注意的是第一种配置方法在使用> ~/.kube/config时会把之前的访问凭证覆盖掉,这时可以将集群的/etc/kubernetes 当配置完集群访问凭证后,可以使用以下命令进行集群信息的查看及切换。 kubectl config get-contexts #查看集群信息,*表示当前的工作环境。

    3.3K10编辑于 2022-01-27
  • 来自专栏CSDN技术头条

    集群真的不会管理

    传统单一集群式的服务模式将会越来越暴露出它的局限性,包括它的单主节点性能瓶颈,异构环境下的服务模式等等,而集群协同服务将会是大规模集群服务的一个重要演变趋势。 例如一个典型的使用场景,一个公司的业务规模十分庞大,底下有多个 HDFS 集群做数据存储,那么我们如何去做跨集群的数据访问以及集群间的管理呢。 本次 Chat 将带领大家学习了解 HDFS 集群的新尝试方案:基于路由方式(RBF)的集群管理。 通过本 Chat 的学习您将学习到: 传统 HDFS 集群管理方案:ViewFs+Federation 方案 传统集群管理方式的弊端 RBF:基于路由的集群管理 RBF 功能的独有特性 RBF 的未来工作展望 目前大家对 HDFS 集群讨论的比较多的还是 ViewFs+Federation 方案,本 Chat 将要阐述的 RBF 方案将给大家带来新的尝试方向和一些新的思路。

    71410发布于 2018-10-08
  • 来自专栏黑客下午茶

    flux2+kustomize+helm+github 集群 GitOps 原生渐进式交付

    对于此示例,我们假设有两个集群的场景:暂存(staging)和生产(production)。最终目标是利用 Flux 和 Kustomize 来管理两个集群,同时最大限度地减少重复声明。 flux2-kustomize-helm-example https://github.com/fluxcd/flux2-kustomize-helm-example 您将需要 Kubernetes 集群版本 Helm 版本 infrastructure 目录包含常见的基础设施工具,例如 NGINX ingress controller 和 Helm 存储库定义 clusters 目录包含每个集群的 Flux Bootstrap staging 和 production 集群目录包含 Flux 配置: . 添加集群 如果要将集群添加到你的 fleet 中,请先在本地克隆存储库: git clone https://github.com/${GITHUB_USER}/${GITHUB_REPO}.git cd

    1.4K10发布于 2021-07-07
  • 来自专栏huofo's blog

    k8s集群管理

    集群的切换是K8s运维中比不可少的问题,常见的基于多个集群进行切换的方法有三种: 切换config文件 通过context进行集群切换 用kubecm进行集群切换 切换config文件 我们先看看放在 .kube下默认的config集群: $ kubectl config view apiVersion: v1 clusters: - cluster: certificate-authority-data 通过context进行集群切换 把要切换的所有config文件添加到KUBECONFIG环境变量中 $ export KUBECONFIG=$HOME/.kube/config:$HOME/.kube : # 切换stage集群 $ kubectl config use-context stage Switched to context "stage". 切换到第二个集群: $ kubectl config use-context 2xxxxxxxxxxx8 Switched to context "21xxxxxxxxxxxxx9648".

    81940编辑于 2022-03-18
  • 来自专栏运维开发故事

    Kubernetes集群租户资源管理

    这样一来,当集群中的计算资源不很充足时,如果集群中的Pod负载突然加大,就会使某个Node的资源严重不足。 通过资源限额来确保不同的Pod只能占用指定的资源 允许集群的资源被超额分配,以提高集群的资源利用率 为Pod划分等级,确保不同等级的Pod有不同的服务质量(QoS),资源不足时,低等级的Pod会被清理, 当前Kubernetes集群中的计算资源主要包括CPU、GPU及Memory,绝大多数常规应用是用不到GPU的,因此这里重点介绍CPU与Memory的资源管理问题 CPU与Memory是被Pod使用的, Memory 相关规则如下: 单位Mi 1024Mi=1G内存 Requests 根据业务实际使用量进行预估填写 Limits = Requests * 20% + Requests 3.Namesace资源管理规范 业务实际Requests Limit 不超过整体80% 防止业务滚动更新无足够资源创建Pod 3.1 租户资源使用策略 通过ResourceQuota限制对应项目组资源用量 3.2 资源用量变更流程

    88420发布于 2021-12-02
  • 来自专栏Java升级打怪进阶之路

    原生中间件RocketMQ(三)RocketMQ集群Master和Master-Slave方式)部署实操

    RocketMQ为我们提供了丰富的集群架构模型,包括单点模式、主从模式、双主模式以及生产上使用最多的双主双从模式(或者说从模式)。 更多细节可以查看我之前的文章:原生中间件RocketMQ(二)源码包结构和集群架构模型。本文主要讲双主模式和从模式的部署。 2s-async/broker-a.properties vim /usr/local/rocketmq/conf/2m-2s-async/broker-b.properties 文件内容如下: # 所属集群名字 (Master-Slave方式) 从模式分为俩种方式,第一种为异步复制,第二种为同步双写,我们暂且考虑其中的一种情况,注意:(RocketMQ每一种集群环境配置会对应一个不同的目录) 双主模式 ,文件夹配置为: conf/2m-noslave/ 从模式(异步复制),文件夹配置为: conf/2m-2s-async/ 从模式(同步双写),文件夹配置为: conf/2m-2s-sync

    1.1K30编辑于 2022-11-28
  • 来自专栏腾讯云原生团队

    技术分享 | 原生模型 NoSQL 概述

    原生能力设计与思考 可扩展和原生是我们设计模型 NoSQL 时考虑的两个目标。前面介绍了实现扩展性的相关的架构内容,系统助于扩展性,支持多种数据访问、API 和存储引擎来实现模型存储。 接下来我想分享下在原生上的设计思考。 原生这个词是最近几年大家经常听到的概念,但当你百度这个概念时却发现很难比较清晰的理解。我个人的理解,原生核心有两个概念,原生产品和原生技术。 原生技术是帮助实现原生产品的技术手段,如容器、服务网格、微服务、不可变的基础设施和声明式 api 等。模型 NoSQL 从设计之初,我们就与相关的原生技术进行紧密结合,考虑了基于原生的能力。 我们原生的特性重点体现在开放性、弹性伸缩、按需付费、 AZ 和 Region 数据分布四个方面。 01 开放性 模型 NoSQL 的开放性主要在下面三个维度进行体现。 首先,接口和功能的开放。 04 AZ 和 Region 分布 AZ 和 Region 分布,是原生产品实现高可用性、数据高可靠性方面的基础要求。

    1K40编辑于 2022-05-23
  • 来自专栏CS实验室

    使用 Kubernetes 联邦(Kubefed)进行集群管理

    前一篇文章 《Kubernetes 集群管理:Kubefed(Federation v2)》对 Federation v2 的基本概念和工作原理简单介绍,本文着重介绍 Kubefed 的使用。 集群管理 可以使用 kubefedctl join 命令接入新集群,在接入之前,需要先将多个集群信息配置在本地的 kubeconfig 中。 对于 KubeFed 来说,资源管理分两类,一是资源的类型管理,另一个是被联邦(federated)的资源管理。 kubefedctl enable 完成了资源类型的管理,对于需要被联邦的资源管理编辑基于新创建的 CRD 展开的。 不过要部署资源之前,需要先创建 federatednamespaces ,集群的资源只会部署到被 kubefed 管理的 namespace 中: $ kubectl get federatednamespaces

    4.3K50发布于 2021-03-22
领券