首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏腾讯云容器运维

    TKE网络模式之vpc-cni

    一般我们选择vpc-cni的网络模式分为2中情况,一种是创建集群的时候就选择vpc-cni模式,还有一种就是创建时候选择的GlobalRouter模式,后面才开启的vpc-cni模式,无论哪种情况开启, 当前 VPC-CNI 模式仅支持单一子网,因此该模式下的 Pod 不可跨可用区调度。 当前 VPC-CNI 模式的子网不能与其他云上资源共用(如云服务器、负载均衡等)。 和子网处于相同可用区的节点才支持创建 VPC-CNI 模式的 Pod,请提前规划 VPC-CNI 模式子网。 您需要指定单节点下 VPC-CNI 模式的 Pod 数量上限,创建后不可修改。 1.创建集群时候选择vpc-cni模式 image.png 创建集群的时候选择,vpc-cni模式,建议开启固定ip的功能,如果某些业务需要设置ip为固定的,这样可以通过固定ip设置,固定ip的模式默认只在 vpc-cni网络模式下的StatefulSet类型工作负载才会生效。

    4.4K41发布于 2020-07-03
  • 来自专栏腾讯云容器运维

    TKE集群中deployment使用vpc-cni模式

    TKE集群中的网络模式分为Global Router和vpc-cni这2种,有的集群是创建的时候使用Global Router的网络模式,但是后续开启了vpc-cni的网络模式,因为集群是可以同时兼容2 在使用vpc-cni的网络模式大家会有一个疑惑,就是为什么我开启了vpc-cni模式后,创建的工作负载中的pod ip没有在我配置的子网中,没有和vpc在一个网段。 其实并不是开启了vpc-cni模式后,创建新的pod或者重建pod就会选择vpc-cni模式,除非你在创建集群的时候就选择的vpc-cni模式,那样创建出来的所有pod分配的ip都会和vpc在一个网段。 其实在tke集群中有一个参数来控制你的pod是否选择vpc-cni模式,下面我们来说说如何使用这个参数,不同类型的工作负载如何选择vpc-cni模式。 deployment的时候在控制台是没有对应的选项来选择是否采用vpc-cni模式的,但是并不是说我们无法创建deployment的pod选择vpc-cni模式。

    2.3K71发布于 2020-07-27
  • 来自专栏云原生搬运工

    【TKE】GR 和 VPC-CNI网络模式混用相关功能配置

    问题一: 在 GR+VPC-CNI 网络模式混用下,仅在创建Statefullsets 工作负载时可以选择是否使用 VPC-CNI 模式创建工作负载,创建其他类型工作负载时无法在控制台选择(默认创建的是 spec.template.metadata.annotations)注解中添加tke.cloud.tencent.com/networks: "tke-route-eni"这个注解指定创建的工作负载 pod 网络模式为 VPC-CNI 问题二: 在 GR+VPC-CNI 网络模式混用下,集群【基本信息】不显示 VPC-CNI 模式子网添加功能(纯 VPC-CNI 模式是有的),如下图: 临时解决办法: 修改 tke-eni-ipamd

    1K53编辑于 2025-06-20
  • 来自专栏腾讯云容器运维

    TKE中使用lb直连获取客户端真实IP

    为了满足这个常见TKE这边提供了lb直连pod的方式来获取客户端真实的ip,其实tke中能够实现这个方案的主要还是基于在vpc-cni的网络模式下实现的,因为vpc-cni模式可以使pod处于和node 1.Deployment使用lb直连 一般我们创建deploy类型的pod,关联创建svc的时候是无法选择直连lb的类型的,因为这边直连需要pod选择vpc-cni网络模式才可以,我们这边先手动创建一个正常的 annotations: tke.cloud.tencent.com/networks: tke-route-eni image.png image.png 现在pod的网络模式已经是vpc-cni 2.StatefulSet使用lb直连 StatefulSet因为支持在界面创建vpc-cni的网路模式,所以我们只需要在控制台配置就行。 我们不选择vpc-cni模式是没有lb直连选项的 image.png 勾选了vpc-cni模式才会出现lb直连选项,所以我们需要在创建的时候选择vpc-cni,并选择lb直连 image.png 下面我们来测试下创建好的

    1.5K30发布于 2020-07-28
  • 来自专栏腾讯云原生团队

    腾讯云容器服务TKE推出新一代零损耗容器网络

    VPC-CNI 模式: TKE 基于 CNI 和 VPC 弹性网卡实现的容器网络能力,适用于 Pod 固定 IP,CLB 直通 Pod,Pod 直绑 EIP 等场景。 GlobalRouter 和 VPC-CNI 模式目前已服务 TKE 上万企业用户,两种网络模式也存在一定使用限制。 TKE新一代网络方案介绍 TKE 新一代网络方案在原有 VPC-CNI 模式单网卡多 IP 模式的基础上, 进阶为容器直接独享使用弹性网卡,无缝对接腾讯云私有网络产品的全部功能,同时在性能做了极大的提升 功能简介 新一代 VPC-CNI 模式的网络方案中,能够在原有的网络能力中额外增加 支持 Pod 绑定 EIP/NAT,不再依赖节点的外网访问能力,无须做 SNAT,可以满足直播、游戏、视频会议等高并发 实现原理简介 新一代方案在原有 VPC-CNI 模式的基础上扩展,依托于弹性网卡,将绑定到节点的弹性网卡通过 CNI 配置到容器网络命名空间,实现容器直接独享使用弹性网卡。 ?

    3K30发布于 2020-11-19
  • 来自专栏腾讯云容器运维

    玩转tke的混合网络模式

    tke中可以存在以下几种网络模式: GR类型 vpc-cni类型 GR+vpc-cni类型(注意这里只能是创建集群时候选择GR,后续再开启vpc-cni。 如果创建集群选择的是vpc-cni,后续是无法再时区GR) 其实混合网络模式就是创建集群时候网络选择GR,然后后续开启vpc-cni这个网络模式附加到集群上,今天我们重点讲讲GR+vpc-cni的混合网络模式下如何使用 启用混合网络模式 首先我们创建一个GR模式的tke集群,然后在集群的基本信息中找到开启vpc-cni模式的按钮,点击开启 image.png 这里会让你选择一个空的子网来用于vpc-cni的模式下,pod image.png vpc-cni其实就是给每个节点分配一个辅助网卡,然后从网卡中分配ip给pod,由于腾讯云上弹性网卡需要和cvm处于同一个可用区,我这里选择的是广州4区的子网作为vpc-cni的子网 2. deployment类型pod获取客户端ip 上面已经说过了,获取客户端ip只需要pod在vpc-cni的模式就行,那么deployment类型如果让pod部署在vpc-cni模式下呢?

    2.2K30发布于 2021-02-05
  • 来自专栏腾讯云原生团队

    TKE 集群组建最佳实践

    VPC-CNI 模式架构: ? 支持三种使用方式: 创建集群时指定 GlobalRouter 模式; 创建集群时指定 VPC-CNI 模式,后续所有 Pod 都必须使用 VPC-CNI 模式创建; 创建集群时指定 GlobalRouter 模式,在需要使用 VPC-CNI 模式时为集群启用 VPC-CNI 的支持,即两种模式混用。 VPC-CNI 支持,也就是 GlobalRouter 与 VPC-CNI 混用,仅对部分业务使用 VPC-CNI 模式; 如果完全了解并接受 VPC-CNI 的各种限制,并且需要集群内所有 Pod 都用 VPC-CNI 模式,可以创建集群时选择 VPC-CNI 网络插件。

    1.8K63发布于 2020-06-02
  • 来自专栏腾讯云容器运维

    如何合理规划TKE集群网络

    TKE这里提供了2中集群网络模式,一种是GlobalRouter(简称GR),还有一种是vpc-cni,GR模式的集群,pod和service是需要用到容器网络的。 vpc-cni其实也是需要用到容器网络的,虽然这个模式下pod是位于vpc内,但是集群的service是虚拟的网络,这里就需要从容器网络来分配一个cidr作为service网段。 这里我们可以根据不同用途来分配子网,我们可以把子网分为以下4类: cloud-resource:主要用来存放云资源,如cvm,clb,数据库 CNI:主要用于vpc-cni模式容器网段,用于pod的ip 分配 CNI-FIXED:用于vpc-cni模式下pod固定ip的分配 GR-CNI:混合网络模式下,用于vpc-cni子网,如果不熟悉这个模式,可以参考这个文档https://cloud.tencent.com 模式下给pod分配ip) CNI-FIXED(vpc-cni模式下固定ip) GR-CNI(混合网络模式下用于vpc-cni子网) 广州一区 subnet-gz1-cr-1 (10.0.0.0/24)

    1.6K40发布于 2021-02-10
  • 来自专栏腾讯云产品

    TKE集群GlobalRouter网络模式如何调整单节点max-pods数

    方案重建集群确认后期添加的大规格节点是否支持弹性网卡,有些裸金属机器不支持弹性网卡,比如BMI5,BMGNV4,BMS4等如果节点支持弹性网卡,建议使用vpc-cni模式,新建TKE集群默认也是vpc-cni 这样节点上pod使用vpc里的子网不会因为单节点gr网络限制导致无法调度过多的pod如果节点不支持弹性网卡,只能使用GlobalRouter模式,需要根据需要重建集群调大单节点pod数gr开启vpc-cni 该方案用于存量集群GlobalRouter网络模式新增节点pod数无法调大的背景,主要是把podIP从GlobalRouter的网段改成vpc-cni的子网IP,从而跳过gr的网段限制注意事项开启vpc-cni 开启vpc-cni模式GlobalRouter网络模式的集群,控制台可以开启vpc-cni模式选择pod需要的子网,等待控制台开启成功开启成功后查看组件Daemonset:tke-eni-agent和deployment

    26121编辑于 2025-12-01
  • 来自专栏腾讯云容器运维

    TKE集群节点max-pod是如何配置的

    2. vpc-cni模式节点最大pod数设置上面说了GlobalRouter模式的max-pod是如何设置的,下面我们来说说vpc-cni模式下是如何设置的,GlobalRouter因为会给每个节点分配容器网段 ,max-pod是根据容器网段cidr来设置,但是vpc-cni模式下容器网段就是vpc子网,pod ip是从子网获取,那每个节点的max-pods是如何设置呢? vpc-cni这里的模式比较复杂,vpc-cni模式下会有个最大的eni ip数量限制,这个是根据机型配置来的,并且也支持在创建集群的时候设置单节点的max-pod,默认是设置的64,。 vpc-cni模式这里定义节点的max-pods会根据对比机型的eni ip数量限制和创建集群设置的pod上限值大小,取2者中的较大的设置为节点的max-pods。 vpc-cni是利用弹性网卡的能力,因此这里的限制也是根据弹性网卡限制来的,具体可以参考文档https://cloud.tencent.com/document/product/576/18527图片其实在

    2.4K40编辑于 2022-08-15
  • 来自专栏腾讯云容器运维

    TKE学习笔记

    该模式其实就是在VPC下为每个节点分配一个子网进行网络通讯和传输 1.2VPC-CNI 模式 image.png VPC-CNI模式是在某个VPC下提前规划好多个子网,pod服务通过每个节点上的弹性网卡从子网中随机分配 1.3VPC-CNI和GlobalRouter对比 image.png 绝大多数情况下应该选择 GlobalRouter,容器网段地址充裕,扩展性强,能适应规模较大的业务 如果后期部分业务需要用到 VPC-CNI 模式,可以在 GlobalRouter 集群再开启 VPC-CNI 支持,也就是 GlobalRouter 与 VPC-CNI 混用,仅对 部分业务使用 VPC-CNI 模式 如果完全了解并接受 VPC-CNI 的各种限制,并且需要集群内所有 Pod 都用 VPC-CNI 模式,可以创建集群时选择 VPC-CNI 网络插件 2.TKE集群容器运行组件 2.1Docker image.png docker

    1.8K40发布于 2020-06-08
  • 来自专栏腾讯云原生团队

    搬砖武士|手把手教你在容器服务 TKE 上使用 LB直通 Pod

    集群网络模式必须开启VPC-CNI弹性网卡模式,因为目前 LB 直通 Pod 的实现是基于弹性网卡的,普通的网络模式暂时不支持,这个在未来将会支持。 怎么用 ? 由于目前 LB 直通 Pod 依赖 VPC-CNI,需要保证 Pod 使用了弹性网卡: 如果集群创建时选择的是 VPC-CNI 网络插件,那么创建的 Pod 默认就使用了弹性网卡。 如果集群创建时选择的是 Global Router 网络插件,后来开启了 VPC-CNI 支持,即两种模式混用,创建的 Pod 默认不使用弹性网卡,需要使用 yaml 创建工作负载,为 Pod 指定 tke.cloud.tencent.com 80 path: / 参考资料 TKE基于弹性网卡直连Pod的网络负载均衡:https://mp.weixin.qq.com/s/fJtlm5Qjm2BfzekC4RegCQ 集群开启 VPC-CNI 模式网络: https://cloud.tencent.com/document/product/457/34993 VPC-CNI 网络模式使用指引: https://cloud.tencent.com

    1K87发布于 2020-09-24
  • 来自专栏日常工作总结

    TKE上服务暴露的几种方式

    TKE 上的 VPC-CNI 5. TKE 上 CLB 直通 Pod 6. TKE 使用已有负载均衡器 7. TKE 使用内网负载均衡器 8. TKE 上的 VPC-CNI TKE 通常用的 Global Router 网络模式(网桥方案),还有一种是 VPC-CNI(弹性网卡方案)。 VPC-CNI 是 TKE 上一种新的网络模式,为每个 Pod 分配一个 ENI 弹性网卡的 EIP,Pod 间直接通过弹性网卡通信。可以理解为:给每个 Pod 分配了一个内网 IP。 TKE 上 CLB 直通 Pod TKE 的 CLB 默认绑定的都是 node 的 IP 和端口,在使用了 VPC-CNI 给 Pod 提供独立内网 IP 之后,CLB 可以直接绑定 Pod。

    2.2K8682发布于 2020-09-07
  • 来自专栏腾讯云容器运维

    TKE集群pod内无法访问集群外cvm自建容器

    问题描述 使用tke产品的客户,经常会遇到GlobalRouter网络模式下tke集群内的pod无法访问集群外cvm自建docker容器服务,cvm节点也无法集群内pod服务,vpc-cni网络模式下集群是没有这个问题的 思考扩展 还记得开始我们说过,在vpc-cni的模式下,不会出现这个问题,经过上面的分析和排查,大家应该知道为什么vpc-cni不会出现这个问题了,原因很简单。 vpc-cni模式下容器网段都是vpc下的子网ip,容器网络和vpc是同一个网络层面,vpc-cni模式下的pod访问cvm上的docker会走local路由策略,走主网卡eth0出去,因此不会有这个问题

    1.6K102发布于 2021-09-18
  • 来自专栏赵化冰的技术博客

    腾讯云容器网络介绍

    VPC-CNI 网络模式 在 VPC-CNI 网络模式下,Pod 与虚拟机都在一个 VPC 网络中,共享相同的 CIDR 网段。集群中所有的 Pod 属于同一个 VPC 子网。 根据 Pod 的网卡是否为独立弹性网卡,VPC-CNI 又分为共享网卡和独占网卡两种模型。 我们采用该例子来分析一下 VPC-CNI 网络的共享网卡模式下 Pod 的流量是如何转发的。 出向 - 从 Pod 到虚机 在 VPC-CNI 模式下,集群中的所有 Pod 属于同一个 VPC 子网。 由于集群中所有 Pod 都在同一个 VPC 子网中,vpc-cni 模式的全局路由表是按照 Pod 节点而不是子网粒度进行设置的。 VPC-CNI 模式实质 如果我们忽略上面介绍的这些技术细节,以上帝视角来看 VPC-CNI 模式,则可以把 VPC-CNI 网络模式看做一个扁平的二层网络,该网络中所有的虚拟机和 Pod 之间都可以直接进行通信

    6.1K10编辑于 2022-08-01
  • 来自专栏腾讯云原生团队

    虚拟节点轻松应对 LOL S11 百万并发流量——腾竞体育的弹性容器实践

    这里将介绍 LOL S11 赛事期间,腾竞赛事数据开放平台如何通过 虚拟节点弹性调度+VPC-CNI 架构,轻松应对爆发的百万流量。 普通节点+虚拟节点 开启 VPC-CNI 采用直连 Pod 模式后,集群不再受 NodePort 网络转发能力的限制,少量常规节点应对业务日常低负载场景,利用虚拟节点弹性扩缩容能力应对赛事期间业务超高负载场景 优化方案 开启 VPC-CNI 后采用直连 Pod 模式,容器与节点分布在同一网络平面,每个 Pod 分配有固定 IP,网络直接由 CLB 转入 Istio Ingress,不再经由 NodePort 最终效果 通过虚拟节点和 VPC-CNI 模式下直连 Pod 的结合,目前集群整体承载能力有了很大的提升,在成本控制方面也有了长足的进步。 百万承载 VPC-CNI 直连 Pod 解决了 NodePort 流量转发瓶颈的问题,加上虚拟节点近乎无限资源的扩容能力大大提高了集群水平扩容的上限,像腾竞赛事数据开放平台这样大量读的场景能轻松扩容至百万乃至千万级

    1.3K20编辑于 2021-12-07
  • 来自专栏帅云霓的技术小屋

    云计算网络技术内幕 (19) 第聂伯河畔的浪漫战歌 (下)

    在TKE中,提供了另一种插件,叫做VPC-CNI。从字面意义上理解,就是通过CNI插件,将Kubernetes的Pod直接接入VPC。这是如何实现的呢? 而TKE的VPC-CNI功能,为应用开发者提供了支持这一灰度迭代方法的工具。 今天我们有两个收获: 1. 理解了VPC-CNI的工作原理; 2.

    38330编辑于 2023-09-06
  • 来自专栏TKE学习

    在k8s中获取客户端真实IP实践

    AGE nginx <none> chen.nginx.cn 139.186.101.117 80 2m35s 1)集群外节点访问 图片 2) 集群内节点去访问 图片 二 VPC-CNI 缺点:集群需开启 VPC-CNI 网络模式,详情请参见 VPC-CNI 模式说明。 servicePort: 80 path: / 1)集群外节点去访问 图片 2)集群内节点访问 走的是公网IP 图片 6,ingress非直连POD模式 图片 三 VPC-CNI -H "Host: chen.nginx.cn" -s http://114.117.221.188/ ;done 1)VPC外其他节点访问 图片 2)集群内节点访问 图片 2,后端POD使用的是VPC-CNI 模式,nginx-ingress-controller使用的是VPC-CNI直连模式(正常获取) apiVersion: networking.k8s.io/v1beta1 kind: Ingress

    7.8K30编辑于 2022-07-17
  • 来自专栏云原生知识宇宙

    Nginx Ingress on TKE 部署最佳实践

    如果你的网络模式是 VPC-CNI,那么所有的 Pod 都使用的弹性网卡,弹性网卡的 Pod 是支持 CLB 直接绑 Pod 的,可以绕过 NodePort,并且不用手动管理 CLB,支持自动扩缩容: [ebdqmwwkcf.jpeg] 如果你的网络模式是 Global Router(大多集群都是这种模式),你可以为集群开启 VPC-CNI 的支持,即两种网络模式混用,在集群信息页可打开: [iznp3xybhv.jpeg ] 确保集群支持 VPC-CNI 之后,可以使用下面命令安装 Nginx Ingress: kubectl create ns nginx-ingress kubectl apply -f https: 它需要集群支持 VPC-CNI,如果你的集群本身用的 VPC-CNI 网络插件,或者用的 Global Router 网络插件并开启了 VPC-CNI 的支持(两种模式混用),那么建议直接使用这种方案。

    1.6K73发布于 2020-08-07
  • 来自专栏腾讯云原生团队

    容器服务 TKE 上服务暴露的几种方式

    TKE 上的 VPC-CNI TKE 通常用的 Global Router 网络模式(网桥方案),还有一种是 VPC-CNI(弹性网卡方案)。 VPC-CNI 是 TKE 上一种新的网络模式,为每个 Pod 分配一个 ENI 弹性网卡的 EIP,Pod 间直接通过弹性网卡通信。可以理解为:给每个 Pod 分配了一个内网 IP。 TKE 上 CLB 直通 Pod TKE 的 CLB 默认绑定的都是 node 的 IP 和端口,在使用了 VPC-CNI 给 Pod 提供独立内网 IP 之后,CLB 可以直接绑定 Pod。

    2.5K9390发布于 2020-09-14
领券