纯用户界面操作比较方便,详细看这里:https://rancher.com/docs/rancher/v1.6/zh/ 官网上有很多介绍,这里就不一一说明了,在mac上建议用docker安装,在docker docker pull registry.cn-hangzhou.aliyuncs.com/rancher/rancher:v2.4.2 Digest: sha256:248ddca1169e8a4e06babd50e8105cbba0a326f86ec4de3e38d61e8909ffdb4e
在上一篇文章里我们主要介绍docker的安装,这里我们主要介绍安装etcd集群安装。这里我们采用下载二进制binary制作linux systemd的方式安装,安装完成之后开启开启双向ssl验证。 另外etcd集群的安装方式主要有3种,静态的集群安装(就是预先知道有集群中多少台etcd,在每一台etcd里都配置指向其它的etcd来形成集群)。基于已经存在的etcd利用服务发现机制安装。 基于dns的服务发现机制安装。这里我们以学习为目的采用第一种方式安装,当然对于应用环境还是基于服务发现的机制比较好(这里我们机器有限,就不自己搭建一个bind dns服务来做服务发现安装了)。 在其它2台vm环境上重复上述步骤完成etcd集群安装,并health-check etcdctl --ca-file /etc/etcd/ca.crt --cert-file /etc/etcd/etcd-client.crt 目前先写到这里,在下一篇文章里我们开始介绍安装flannel。
参考: 文章 命令: cat >> /etc/yum.repos.d/kubernetes.repo <<eof [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/ enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/y
-split " +")[1] kubectl config set-credentials docker-for-desktop --token="${TOKEN}" echo $TOKEN 安装
localhost4.localdomain4::1 localhost localhost.localdomain localhost6 localhost6.localdomain6192.168.124.129 kubernetes 两个节点都需要安装 安装 cat > /etc/yum.repos.d/kubernetes.repo <<EOF[kubernetes]name=Kubernetesbaseurl ,所以直接yum install -y kubeadm即可,它会安装相应依赖包。 4.安装 Master 组件,会从 goolge 的 Registry 下载组件的 Docker 镜像,这一步可能会花一些时间,主要取决于网络质量,如果本地已有相关镜像则会优先使用本地的。 .sdAwrS-tLEHY62ufIwZBrC58-yVsqMGV_AdeyFu8EBPpzdSfgCDemPIyEonGdz9cU6CLMpLnvJ4r7OLBexCaZ4WPIh_Q6N3YjK150d
ApiServer 中 pod 资源的变化,便会去通知自己节点的 docker,进行增加运行容器和删除容器的动作 通过上述简图和描述,相应到这里,xdm 对于修改一个 deployment 资源的副本数, k8s
安装在目标集群上,执行如下命令:kubectl apply -f https://github.com/512team/dhorse/raw/main/conf/kubernetes-prometheus.yml 使用1.在浏览器访问地址:http://master_ip:30000,如下图所示:图片2.查看k8s自带的指标数据,如下图所示:图片3.点击“Execute”按钮,并切换到“Graph”选项卡,可以看到指标的统计信息
包管理器类似于我们在 Ubuntu 中使用的apt、Centos中使用的yum 或者Python中的 pip 一样,能快速查找、下载和安装软件包。 Helm 由客户端组件 helm 和服务端组件 Tiller 组成, 能够将一组K8S资源打包统一管理, 是查找、共享和使用为Kubernetes构建的软件的最佳方式 # 1.解压 [root@master help The Kubernetes package manager Common actions for Helm: - helm search: search for charts # 4.
8s NodePort 为kubectl get service/nginx-servic 后 88:80/TCP中 80这个端口; 本次为http://任意节点ip:80/ # 3.敲重点:验证k8s STATUS RESTARTS AGE nginx-57787bbfc6-7fwkx 1/1 Running 0 6m32s nginx-57787bbfc6-j4p5c kubectl get pods NAME READY STATUS RESTARTS AGE nginx-57787bbfc6-4jxtw 1/1 Running 0 10s nginx-57787bbfc6-j4p5c 1/1 Running 0 7m12s nginx
/etc/kubernetes" scp ca*.pem ca-config.json k8s@${node_ip}:/etc/kubernetes/cert done 客户端安装 wget kube" scp kubectl.kubeconfig root@${node_ip}:~/.kube/config done 保存到用户的 ~/.kube/config 文件; etcd安装 安装软件包 source /opt/k8s/bin/environment.sh for node_ip in ${NODE_IPS[@]} do echo ">>> ${node_ip}" 14m system:node:kube-node1 Approved,Issued平时 node-csr-7q7i0q4MF_K2TSEJj16At4CJFLlJkHIqei6nMIAaJCU 下载和分发 kube-proxy 二进制文件 参考 06-0.部署master节点.md 安装依赖包 各节点需要安装 ipvsadm 和 ipset 命令,加载 ip_vs 内核模块。
-n summer NAME DESIRED CURRENT READY AGE mysql-deployment-66bf8d5bf4 summer NAME READY STATUS RESTARTS AGE mysql-deployment-66bf8d5bf4- 4rbq7 1/1 Running 0 33s # 4.创建对应服务 (注意定义type=NodePort,并对应的nodeport端口号,以便集群外访问该服务)
有它自己的安全策略 #查看当前docker版本 [root@docker-k8s01 ~]# docker -v Docker version 18.09.0, build 4d60db4 #关闭防火墙 ,在初始化过程中会自动下载,但要是网速慢的童鞋可能会很漫长,所以这里提前准备了需要的软件包(提取码:1231),一会上传上去导入即可 三、配置k8s群集 1、安装部署k8s相关工具 注:以下操作在master 主机上进行 #安装k8s的master所需组件 [root@docker-k8s01 ~]# yum -y install kubelet-1.15.0-0 kubeadm-1.15.0-0 kubectl 的配置文件目录 [root@docker-k8s01 ~]# ls /etc/kubernetes/manifests/ # k8s的.yaml文件存放目录 4、配置node01 及node02加入master群集 #两台node节点都需执行如下操作 #安装k8s相关组件 [root@docker-k8s02 ~]# yum -y install kubelet-1.15.0-0
安装 Dashboard 相较之前的步骤就容易很多了。这里dashboard以Pod的形式运行,以Service的形式提供服务,以node port的方式向集群外暴露服务端口。 port,让集群外部通过node port可以访问Dashboard vi recommended.yml # 添加如下配置 nodePort: 30443 type: NodePort 安装
# 1.编辑k8s-eureka-prod.yml 点击查看 apiVersion: v1 kind: ConfigMap metadata: name: eureka-cm data: # if you want to deploy n instances of eureka cluster, # you should set eureka_service_address: http://eureka-0.eureka:8761/eureka,...,http://eureka-(n-1
这里,我将集群管理分为以下几种:图片安装集群前置说明Kubernetes的集群安装分为:kubeadm安装和二进制安装。在这里,只会介绍kubeadm的安装。 7.9系统内核:3.10.0-1160环境准备这是安装的不是生产级别的集群,只是为了演示使用。 span>
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4. modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4< ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4<
本篇文章主要是通过 VMware 来创建虚拟机,在虚拟机上通过 kubeadm 安装 k8s 集群; 第一部分:虚拟机创建 1 环境信息 安装镜像:ubuntu-22.04.5-live-server-amd64 ; 2)选择磁盘大小为 120GB,将整个磁盘存储为耽搁文件; 3)这里创建的 worker 节点为4C4GB 大小,使用桥接模式; 4)安装 Ubuntu 22.04 系统 5)其他按照默认安装,填写对应用户名和密码即可 ,开启 SSH Server 6)选择安装的软件,这里其实可以什么都不选,后面根据需要再进行安装; 等待系统安装完成,登录系统,查看 IP 地址; 第二部分:k8s 集群创建 安装的环境信息: 主机名 ntp 服务: apt install ntp systemctl start ntp 3 k8s 组件安装 1)containerd 安装 wget https://github.com/containerd k8s 集群部署 1)更换阿里云 k8s 镜像源 echo "deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main"
adoptopenjdk/openjdk8:latest latest: Pulling from adoptopenjdk/openjdk8 da7391352a9b: Pull complete 14428a6d4bcd : Pull complete 2c2d948710f2: Pull complete cb4bdbb5e5c9: Pull complete ab9e86831f30: Pull complete Digest: sha256:93e1e6a3e400895fca1f7ca0b3a0de284220ef4c5398b4e524286459a96e209a Status: Downloaded ---> Running in 9d62ad302ecc Removing intermediate container 9d62ad302ecc ---> dbb658fc1a83 Step 4/ ports: - port: 28601 targetPort: 28601 nodePort: 32081 selector: app: zuul # 4.
假如有报错:modprobe: FATAL: Module nf_conntrack_ipv4 not found. modprobe: FATAL: Module nf_conntrack_ipv4 将nf_conntrack_ipv4替换为nf_conntrack。 yum会自动安装更高版本 [root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y 4、添加一个配置文件 设置kubelet开机自启 [root@master ~]# systemctl enable kubelet 4、准备集群镜像资源 在安装kubernetes集群之前,必须要提前准备好集群需要的镜像, kubeadm config images list 下载镜像 此镜像在kubernetes的仓库中,由于网络原因,无法连接,下面提供了一种替代方案(先下载镜像,然后再安装K8s) images=(
git clone https://github.com/rook/rook.git
Kubeapps是Bitnami公司的一个项目,其目的是为Kubernetes的使用者们提供已经打包好的应用仪表盘,它拥有网页界面可以更方便的部署和管理 k8s 原生应用。 within your cluster: kubeapps.kubeapps.svc.cluster.local To access Kubeapps from outside your K8s -1KdLaDEzDkwvuaEQtF0i8BkhvV4gLSNCJPMJg0j6dCCiMhW_yZ0Mk7xfIkZw2VgLLUQqM3T9fgLy5sqMZhNCHTTkYn-qaL0MWf_GTJ9P9Tx1bDlJ6JAD9X36bwYXzq1dd4scZF8Nz8YYWq38U394mQbNnM72XA8ItBBj4Qf5j9YgSvpoq5xrpAxChUnl0hHLizORZWvVYee1RVDIYxYLV-KhkQkKsSduXadxkG2xCQETiaLae2qeu9Q7PFEHNobbgireLEDTOowmIusWhWcoWA 6d57bfb564-zhkv9 1/1 Running 0 2m2s kubeapps-internal-kubeops-859d5d49c4- kvtkv 1/1 Running 0 2m2s kubeapps-internal-kubeops-859d5d49c4-rgkcd