首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏k8s技术圈

    Istio集群实践

    集群模型 Istio 集群网格有多种模型,在网络拓扑上分为扁平网络和非扁平网络,在控制面上分为单一控制平面和控制平面。 扁平网络控制面 控制面模型是每个集群都使用自己的 Istio 控制面,但是每个 Istio 控制面仍然要感知所有集群中的 Service、Endpoint 等资源,并控制集群内或者跨集群的服务间访问 集群安装 在选择 Istio 集群模型时,当然需要结合自己的实际场景来决定。如果集群之间的网络是扁平的,那么可以选择扁平网络模型,如果集群之间的网络是隔离的,那么可以选择非扁平网络模型。 如果集群规模较小,那么可以选择单控制面模型,如果集群规模较大,那么可以选择控制面模型。 接下来我们这里选择跨网络主架构的模型来进行安装说明,即非扁平网络控制面模型。 集群应用测试 接下来我们可以部署一个简单的示例来验证下我们的集群服务网格是否安装成功了。

    1.3K10编辑于 2024-01-10
  • 来自专栏运维小路

    DeepSeek-集群部署

    前面我们无论是直接部署,还是容器部署都还是单机的模型,受单机GPU限制,并不能跑比较大的模型,今天我们将用多台机器组成一个集群来跑一个更大的模型。 4.准备集群脚本 wget https://github.com/vllm-project/vllm/blob/main/examples/online_serving/run_cluster.sh 5 8.检查集群状态 #进入主节点容器 docker exec -it node bash 这里显示3个节点,总共6个GPU(下图是我只有5张卡的截图),显示以后就ray集群启动成功。 然后3台集群6张卡组成了一个小集群

    2.6K12编辑于 2025-03-06
  • 来自专栏idba

    有赞NSQ集群机房设计

    文 | 鲁林 on 基础保障 一、Overview 从有赞双机房开始到金融云架构,针对业务方在机房的应该部署以及消息发送订阅需求,需要 NSQ 针对双机房以及机房部署提供消息发送与订阅服务。 本文主要介绍了 NSQ 双机房以及机房设计以及经验总结。 二、场景和需求 下图是一个机房内基本的 NSQ 消息生产和消费的部署。一个机房内生产者往 NSQ 集群发消息,多个消费者订阅消息。 ? 五、双机房到机房 随着业务增长,NSQ 集群上topic数量以及读写流量日渐增加,同时为了满足更多的业务场景,公司机房再度增加。 migrate 的双机房方案的实现主要基于 NSQ 在两个集群间的迁移设计,而机房场景下,生产消费流量要求在多个集群之间路由。 针对新的机房集群需求,我们重新设计了 migrate 的数据结构,提出了一种保存 lookup 数据格式,以及一种 lookup 地址的 schema。

    2.3K20发布于 2019-07-17
  • 来自专栏腾讯云容器运维

    KubeSphere管理tke集群

    除此之外,平台已经整合并优化了多个适用于容器场景的功能模块,以完整的解决方案帮助企业轻松应对敏捷开发与自动化运维、微服务治理、租户管理、工作负载和集群管理、服务与网络管理、应用编排与管理、镜像仓库管理和存储管理等业务场景 由于每个 Kubernetes 集群都是一个相对独立的单元,上游社区正在艰难地研究和开发集群管理解决方案。 KubeSphere的集群管理架构如下,只能有一个 H 集群存在,而多个 M 集群可以同时存在。在集群架构中,H 集群和 M 集群之间的网络可以直接连接,或者通过代理连接。 因此,您首先需要在Host 集群中执行以下命令来获取它,后面再配置member集群需要用到。 KubeSphere控制台添加member集群 我们登录host集群的KubeSphere控制台,根据日志提供的登录账号密码登录,会显示有一个默认的host集群 image.png 点击添加集群,并填写集群的相关信息

    1.3K10发布于 2021-08-08
  • 来自专栏mazhen.tech

    使用kubectl管理集群

    context是访问一个kubernetes集群所需要的参数集合。 每个context有三个参数: cluster:要访问的集群信息 namespace:用户工作的namespace,缺省值为default user:连接集群的认证用户 缺省情况下,kubectl会使用 current-context指定的context作为当前的工作集群环境。 在不了解context的概念之前,想访问不同的集群,每次都要把集群对应的config文件copy到$HOME/.kube目录下,同时要记得使用kubectl cluster-info确认当前访问的集群: 看吧,kubectl切换context管理集群是多么的方便。

    54010编辑于 2023-11-24
  • 来自专栏Tensorbytes

    关于kubeconfig集群切换

    集群的切换是K8s运维中比不可少的问题,常见的基于多个集群进行切换的方法有三种: 切换config文件 通过context进行集群切换 用kubectl-plugins进行集群切换 切换config文件 - name: "212785087522004927" user: client-certificate-data: client-key-data: 通过export更改默认集群配置 通过context进行集群切换 把要切换的所有config文件添加到KUBECONFIG环境变量中 $ export KUBECONFIG=$HOME/.kube/config:$HOME/.kube : # 切换stage集群 $ kubectl config use-context stage Switched to context "stage". 通过kubectl-plugins切换集群 针对不方便查看我们可以永kubectl-plugins来解决。kubectl-plugins 是一个对kubectl的增强插件。

    3K20发布于 2020-08-17
  • 来自专栏CS实验室

    Kubernetes 集群管理:Kubefed

    Kubernetes 集群管理:Kubefed Kubefed(Federation v2)即 Kubernetes 联邦,是目前社区正在难产的集群解决方案,目前的版本是 0.1.0,如果考虑到 至于被废弃的原因是因为开发团队认为集群联邦的实践比想象中还要困难,有许多问题是 v1 架构没被考虑进去的,比如: 控制平面组件会因为发生问题,而影响整体集群效率。 Controller Manager 协调不同集群之间的状态,通过与成员集群的 Api Server 通讯,来统筹管理所有的 Kubernetes 成员集群。 本来资源设计的就非常不灵活,加之 RBAC 的支持问题,使得无法做到集群资源的权限管理,因而流产,并为 v2 积累了宝贵的教训。 kubefedctl join 使得成员集群加入到主集群(Host Cluster) Member Cluster:通过 KubeFed API 注册为成员并受 KubeFed 管理的集群,主集群(Host

    1.8K10发布于 2021-03-22
  • 来自专栏LINUX开源玩家

    pve集群使用网段

    我们安装PVE创建集群的时候,默认情况下都是使用一个IP地址段,实际上PVE集群的底层支撑corosync支持多个网段,在网络本身不稳定或者一个网络意外中断的情况下,继续判断和维持集群状态。 直接拷贝,如 root@node011:~# scp /etc/corosync/corosync.conf node012:/etc/corosync/corosync.conf 之后逐个节点重启集群服务 pvedaemon.service # systemctl start pvestatd.service 如果觉得命令麻烦,可以图形界面操作 最后就这样 corosync是一个有多年历史的优秀的集群管理套件 ,Linux下面配置集群的朋友熟悉的pcs套件就是基于corosync的。

    3.3K20编辑于 2022-05-20
  • 来自专栏CNCF

    Kubernetes集群管理之路

    本文主要讲述了一些对于Kubernetes集群管理的思考,包括为什么需要集群集群的优势以及现有的一些基于Kubernetes衍生出的集群管理架构。 相反,可能更多的还是会选择部署多个集群。对于集群的使用场景而言,如何对这些集群进行统一的管理,则是集群联邦(Federation)架构产生的原因。 1.1 为什么需要集群? 1.2 集群联邦概念 Kubernetes在设计之初并非是为了集群的场景,而面对集群分布式的使用需求,社区从v1.3版本开始着手设计,集群联邦的概念也应运而生。 无需修改即可创建集群应用。 lPropagation Policy:分发策略。可重用的应用集群调度策略。 lResource Binding:通用类型,驱动内部流程。 05 总结 本文介绍了Kubernetes集群管理发展的,主要包括以下几个部分内容: l第一部分,介绍了Kubernetes集群联邦的基础知识,包括为什么需要集群集群联邦的概念和演进过程; l第二部分

    2.3K21编辑于 2022-11-28
  • 来自专栏用户9379187的专栏

    Cilium 集群 ClusterMesh 介绍

    Cluster Mesh 是 Cilium 的集群实现,可以帮助 Cilium 实现跨数据中心、跨 VPC 的 Kubernetes 集群管理,ClusterMesh 主要有以下功能: 1.通过隧道或直接路由的方式 来自多个集群的状态永远不会在本集群的 etcd 中混淆。 每个集群通过一组 etcd 代理暴露自己的 etcd,在其他集群中运行的 Cilium agent 连接到 etcd 代理以监视更改。 Cilium 使用 clustermesh-apiserver Pod 来建立集群的互联,在 clustermesh-apiserver Pod 中有两个容器:其中 apiserver 容器负责将集群的相关信息写入 从一个集群到另一个集群的访问始终是只读的。这确保了故障域保持不变,即一个集群中的故障永远不会传播到其他集群。 为了方便实验,本文使用 Kind 来搭建 Kubernetes 集群环境。 3.2 环境要求 1.必须为所有 Kubernetes 的工作节点分配唯一的 IP 地址,并且节点之间 IP 路由可达。

    53830编辑于 2022-05-12
  • 来自专栏clickhouse集群双实例测试

    clickhouse集群,双实例副本

    4台机器,clickhouse集群搭建了双副本双实例,查询统计多次出现不同数据结果,具体如下 :出正常数据结果客户端查询按9000和9100分开,对应端口查询分布式表的结果应该只有一种数据,但结果却出现 </node></zookeeper><macros> <shard>02</shard> <replica>rep_2_1</replica></macros></yandex>2、集群查询结果如下 FROM db_test_S2RAB.TEST_0A; --分布式表SELECT COUNT(1) FROM db_test_S2RAB.TEST_0A_LOCAL;--本地表4、问题来了:在集群任意某一个节点

    99240编辑于 2023-09-06
  • 来自专栏云原生民工

    集群实现 PLG 日志收集

    集群实现 PLG 日志收集 PLG介绍 快速部署 PLG 环境 新建目录保存配置文件 1 mkdir -p /data/loki/config && cd /data/loki/config 部署 集群 Loki 方案 一主备 主要思路来自 issue promtail 不仅向本集群 Loki 发送日志,也向主集群 Loki 发送日志。 单主 所有集群的 promtail 只向主集群发送日志 主互备 参考文档 https://github.com/grafana/loki/issues/1866 https://github.com /grafana/loki/issues/5948 K8s 日志架构 PLG 实现 Kubernetes Pod 日志收集和展示 Loki 使用系列 Loki生产环境集群方案 遗留问题 有些节点的 在 promtail value.yaml 里面设置 主 Loki模式 和 主模式 那个更优。 建议用 微服务部署主Loki,实现高可用和高性能。

    73520编辑于 2023-11-16
  • 来自专栏腾讯云容器运维

    tke集群kubeconfig如何合并

    现在很多公司项目在腾讯云上会有多个tke集群用来区分不同的环境,比如测试是一个集群,生产又是另外一个集群,很多时候我们会用到kubectl来操作集群,一般会在客户端配置集群的kubeconfig来访问集群 当我们的集群有多个时候,就需要合并多个集群kubeconfig,然后用context来切换不同集群。 的时候就会有有一个问题,当切换集群操作的时候会出现无法访问集群的apiserver。 问题描述 1.1 准备2个集群的kubecofig 首先我们准备好2个集群的kubecofig文件,这里可以看出不同集群的kubecofig的user和name都是子账号的uin。 解决方案 那么这里有这个问题,后续要怎么合并多个tke集群的kubecofig呢?其实方案很简答,我们只要修改下集群kubeconfig的user和name区分开来即可。

    1.2K20编辑于 2021-12-08
  • 来自专栏CNCF

    在Kubernetes中简化集群

    其基本思想是使用 git 仓库作为应用程序部署的单一数据源,并更新集群的相应对象。面对集群拓扑结构,GitOps 可以代表一个基本的集群控制平面。 一些最流行的服务网格架构(ISTIO[13]、Linkerd[14])具有集群支持,以支持集群的微服务应用程序。不同集群之间的互连使用一个专用代理将流量从一个集群的网格路由到另一个。 Liqo 背后的思想是使集群拓扑成为集群管理员的单步操作。这是通过结合一种基于 Virtual Kubelet 的方法来处理集群控制平面和一个与 CNI/IP 配置无感的专用网络结构来获得的。 这对于服务反射尤其有趣,它实现了“东西”的集群服务。Pod 可以访问集群拓扑中的任何位置的服务。在幕后,服务端点由 Liqo VK 操纵,精心设计还考虑 NAT 转换。 结论 随着集群数量的增加,集群拓扑将开始变得越来越流行。

    3K21发布于 2021-04-21
  • 来自专栏Se7en的架构笔记

    Cilium 集群 Cluster Mesh 介绍

    Cluster Mesh 是 Cilium 的集群实现,可以帮助 Cilium 实现跨数据中心、跨 VPC 的 Kubernetes 集群管理,Cluster Mesh 主要有以下功能: 1.通过隧道或直接路由的方式 Cilium 使用 clustermesh-apiserver Pod 来建立集群的互联,在 clustermesh-apiserver Pod 中有两个容器:其中 apiserver 容器负责将集群的相关信息写入 从一个集群到另一个集群的访问始终是只读的。这确保了故障域保持不变,即一个集群中的故障永远不会传播到其他集群。 为了方便实验,本文使用 Kind 来搭建 Kubernetes 集群环境。 3.2 环境要求 1.必须为所有 Kubernetes 的工作节点分配唯一的 IP 地址,并且节点之间 IP 路由可达。 kubernetes-guide/tree/master/cilium/cluster_mesh [4] MetalLB: https://metallb.universe.tf/ [5] 深入了解Cilium集群

    3.1K30编辑于 2022-06-24
  • 来自专栏2022

    使用kubectl配置集群管理

    大家都知道kubectl主要用来管理kubernetes集群,但当我们的环境中有套kubernetes集群时,该如何进行管理呢,下面列出了通过配置kubeconfig来实现kubectl管理集群的方法 一、使用kubeclt合并多个config 这里假设当前客户端已配置一个集群的访问凭证, 即~/.kube/config 里已包含一套集群的访问凭证,那么我们可以将另一套集群的访问凭证上传到/tmp,并命名为 test-config,然后执行以下命令以合并多个集群的config。 四、总结 三种配置方法我倾向于使用第二种,当需要管理集群时配置起来也比较简单,值得注意的是第一种配置方法在使用> ~/.kube/config时会把之前的访问凭证覆盖掉,这时可以将集群的/etc/kubernetes 当配置完集群访问凭证后,可以使用以下命令进行集群信息的查看及切换。 kubectl config get-contexts #查看集群信息,*表示当前的工作环境。

    3.3K10编辑于 2022-01-27
  • 来自专栏云知识学习

    kubectl配置单、集群访问

    您可以通过 Kubernetes 命令行工具 kubectl 从本地客户端机器连接到 TKE 集群。 获取集群账号密码以及证书信息 登录 容器服务控制台 > 集群,单击需要连接的集群 ID/名称,查看集群详情。 在集群信息页,单击【显示凭证】,查看用户名、密码和证书信息。 复制或下载证书文件到本地。 通过证书信息使用 kubectl 操作集群 方法一:单次 kubectl 操作请求,附带证书信息 该方法适用于单次操作集群,不将容器集群的证书信息保存到机器上。 如果想修改 kubectl 配置文件,且集群的请继续往下看 该方法适用于长期通过 kubectl 操作集群, 一次配置,只要文件不修改就长期有效。 背景:假设我有两个集群,一个是生产集群,一个是测试集群,我想通过kubectl操作多个集群请往下配置: 首先配置生产集群的链接 kubectl config set-credentials produce-admin

    3.1K20发布于 2018-08-09
  • 来自专栏大数据那些事

    LVS(10)——实现集群功能

    在前面我们只运行了一个集群,所以只有一个http服务,通过前面的训练,我们可以适当加大难度,我们可以添设两种不同的业务。 (4)修改LVS的ipvsadm 首先先清空所有集群: ? 再添加集群: ? 检查路由转发是否开启: ? 通过windows去curl可以观察到两种服务都可以使用: ?

    60030发布于 2020-11-11
  • 来自专栏CSDN技术头条

    集群真的不会管理!

    传统单一集群式的服务模式将会越来越暴露出它的局限性,包括它的单主节点性能瓶颈,异构环境下的服务模式等等,而集群协同服务将会是大规模集群服务的一个重要演变趋势。 例如一个典型的使用场景,一个公司的业务规模十分庞大,底下有多个 HDFS 集群做数据存储,那么我们如何去做跨集群的数据访问以及集群间的管理呢。 本次 Chat 将带领大家学习了解 HDFS 集群的新尝试方案:基于路由方式(RBF)的集群管理。 通过本 Chat 的学习您将学习到: 传统 HDFS 集群管理方案:ViewFs+Federation 方案 传统集群管理方式的弊端 RBF:基于路由的集群管理 RBF 功能的独有特性 RBF 的未来工作展望 目前大家对 HDFS 集群讨论的比较多的还是 ViewFs+Federation 方案,本 Chat 将要阐述的 RBF 方案将给大家带来新的尝试方向和一些新的思路。

    71210发布于 2018-10-08
  • 来自专栏阿dai_linux

    Rabbitmq集群(单机实例) 原

    本节围绕clustering(集群)讲述。 搭建rabbitmq集群要求: 可靠的网络环境; 集群中所有机器的Rabbitmq和Erlang版本要一样。 ; 客户端连接到集群的任何一个节点都能看到所有的queues。 搭建Rabbitmq集群 搭建Rabbitmq集群的方法有很多种,参考Ways of Forming a Cluster,在此作者使用env variables来搭建集群。 官方文档 搭建集群的方法:http://www.rabbitmq.com/clustering.html#cluster-formation-options 集群搭建要求: DNS解析,集群之间通过域名访问 5671:客户端使用 25672:用于节点间和CLI工具之间的通信 35672-35682:CLI使用 15672:HTTP——web管理接口 集群 环境说明 本次用两个节点搭建rabbitmq集群

    3.1K51发布于 2019-04-03
领券