首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏码农的生活

    K8s 的 Namespace 用于实际承接业务应用的部署

    K8s 的 Namespace ,用于实际承接业务应用的部署,是管理的最小单元。 租户和项目在实现上是一个 CRD ,用户只需要在管控 K8s 集群上创建租户和项目的 CR,KubeCube会将租户和项目的 CR 实时同步到所有的计算 K8s 集群。 运维人员可以集中式的管理所有的计算 K8s 集群,新增集群时会自动同步租户项目等基础信息,项目管理员只需要在任一 K8s 集群(包括管控和计算集群)创建命名空间即可。 为了避免供应商锁定和更好的兼容原生 K8s 能力,KubeCube 的权限模型是基于 K8s 原生的 RBAC 能力实现的,我们期望项目管理员仅可以在他拥有权限的项目下面创建命名空间。 KubeCube 租户模型采用多层级命名空间的设计除了考虑权限限定能够兼容原生 K8s 的 RBAC 外,还额外考虑到一个因素是可以放置租户级的公共配置和项目级的公共配置,如针对整个项目的统一监控配置。

    66920发布于 2021-09-24
  • 来自专栏公众号:咻咻ing

    8. 部署方案

    JanusGraph提供了多种存储和索引后端选项,可以灵活地部署它们。本章介绍了一些可能的部署方案,以帮助解决这种灵活性带来的复杂性。 注意:本章中介绍的场景仅是JanusGraph如何部署的示例。 每个部署都需要考虑具体的用例和生产需求。 1. 基础部署 这种方案是大多数用户在刚开始使用JanusGraph时可能想要选择的方案。 后者描述了将部署向高级部署转换的方式。 任何可扩展存储后端都可以通过这种方案来使用。 但是,对于Scylla,当托管与此方案中的其他服务共存时,需要进行一些配置。 高级部署 高级部署是在第8.1节“基础部署”上的演变。 它们不是将JanusGraph Server实例与存储后端以及可选的索引后端一起部署,而是在不同的服务器上部署。 这种部署方案提供了不同组件的独立可伸缩性,因此使用可扩展的后端存储/索引当然也是最有意义的。 3. 简单部署 也可以在一台服务器上将JanusGraph Server与后端一起部署

    89020发布于 2019-08-07
  • 来自专栏一个执拗的后端搬砖工

    springboot(8)-热部署

    spring为开发者提供了一个名为spring-boot-devtools的模块来使Spring Boot应用支持热部署,提高开发者的开发效率,无需手动重启Spring Boot应用。 接下来我们就通过编码的方式实现springboot热部署。 groupId> <artifactId>spring-boot-devtools</artifactId> </dependency> 二)修改ide配置&浏览器缓存禁用 为了实现热部署 请求能够被正常的接收和处理,也就是说明我们配置的springboot热部署已经生效。 总结 springboot热部署在开发阶段特别实用,我们对应用修改之后不需要手动点构建和部署就能自动重启后看到效果,当然可能springboot实现热部署还有其他方式,这里暂不做过多探讨,有兴趣的可以自己研究一下

    56010发布于 2020-11-19
  • 来自专栏散尽浮华

    K8S部署Kafka集群 - 部署笔记

    对于这类服务的部署,需要解决两个大的问题:一个是状态保存,另一个是集群管理 (多服务实例管理)。kubernetes中提的StatefulSet方便了有状态集群服务在上的部署和管理。 通常来说,通过下面三个手段来实现有状态集群服务的部署: 通过Init Container来做集群的初始化工 作。 通过Headless Service来维持集群成员的稳定关系。 因此,在K8S集群里面部署类似kafka、zookeeper这种有状态的服务,不能使用Deployment,必须使用StatefulSet来部署,有状态简单来说就是需要持久化数据,比如日志、数据库数据、 ,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers 的Cluster Domain集群根域 二、部署过程记录(NAS存储) 这里使用K8S搭建一个三节点的kafka容器集群,因为kafka集群需要用到存储,所以需要准备持久卷(Persistent Volume

    6.7K31发布于 2021-03-03
  • 来自专栏linux运维

    系统集成部署问题:系统集成部署失败,影响业务

    检查当前部署状态首先确认系统集成部署的配置和环境是否正确。 明确部署目标与范围根据业务需求,重新梳理部署的目标和范围。目标:例如实现 ERP 和 CRM 的集成服务上线。范围:涉及的系统(如数据库、API、第三方服务)。 优化部署流程通过合理的部署流程设计,确保部署过程稳定且可追溯。 生成部署报告确保部署工具能够生成符合需求的部署报告。# 示例:使用 Jenkins 导出部署报告 进入 Jenkins -> 查看构建历史 -> 导出日志为 HTML 文件8. 优化部署流程通过以下措施优化部署流程,避免类似问题再次发生:定期演练:定期进行部署演练,确保团队熟悉流程。监控部署结果:设置告警机制,及时发现部署失败。

    84600编辑于 2025-02-11
  • 来自专栏大数据成神之路

    基于实际业务场景下的Flume部署

    有这样一个场景,我们要基于某个web服务实时持续收集用户行为数据; 再实施方案前,我们做了以下的准备工作 (不细说) web服务端部署nginx,用于收集用户行为并有形成log (172.17.111.111 ) 我们数据平台是部署在Hadoop,数据最终固化到hdfs中 (172.22.222.17-19) 数据平台和产生行为日志的机器最好同一个机房,网络环境要保持良好 (废话) 最终方案和技术选型 采用flume 服务收集日志 收集的日志目的地统一为kafka sparkstreaming消费kafka数据并固化到hdfs (hive或者kudu等等) flume采用分布式部署结构 -- 1.web端服务充当发送端 -- 2.大数据平台的agent组成集群充当接受端 -- 3.agent跟agent交互通过type=avro 部署flume服务 还有一种方式就是在所在web工程引入flume的log4j代码,但这样会与原有代码冲突

    50440发布于 2020-08-13
  • 来自专栏Pengcheng's Blog

    MySQL8部署

    3306 3、解压安装包 #进入mysql目录 #解压 tar -xvf mysql-8.0.20-1.el7.x86_64.rpm-bundle.tar 4、安装 此处内容需要评论回复后方可阅读 8

    43920编辑于 2023-05-02
  • k8s部署grafana

    Loki, Elasticsearch, InfluxDB, Postgres and many more.grafana文档:Technical documentation | Grafana Labs部署 grafana腾讯云可观测平台购买grafana参考:腾讯云可观测平台 创建实例_腾讯云k8s/tke部署grafana参考grafana官方文档:Deploy Grafana using Helm Charts 如果生产环境可以考虑使用ingress和自定义域名暴露 部署/卸载grafana参考命令如下创建namespace:monitoringkubectl create namespace monitoring value.yaml卸载grafana命令helm uninstall my-grafana -n monitoring测试运行grafana查看grafana是否正常运行,如果pod没有Running,需要按照k8s kubectl get all -n monitoring部署grafana成功后,可以通过clbVIP访问grafana。

    50310编辑于 2025-04-11
  • 来自专栏随意记录

    本地 k8s 部署

    1 目标 在本地,一键启动 k8s 集群,并将服务部署到 k8s 集群上。 2 部署 k8s 2.1 部署 minikube minikube 是一个虚拟机,启动后会在内部自动创建一个 k8s 集群。 2.1.4 其它命令 停止 minikube: minikube stop 删除 k8s 集群: minikube delete 2.2 部署 Lens Lens 是 k8s 集群的操作界面,可方便地与 中 TCP 服务的端口映射到主机: [将 k8s 中 TCP 服务的端口映射到主机] 内置了 Helm,Helm 用来管理 k8s 应用,可发现、共享和使用为 k8s 构建的软件。 例如,在 k8s 安装 redis 或 nats: [安装 redis 或 nats] 3 部署 Nginx 部署: docker run -d --name xremote_nginx --network 4 部署服务 4.1 部署文件 deployment.yml:定义资源如何部署

    2.2K41编辑于 2022-04-11
  • 来自专栏小黑博客

    K8S部署grafana

    apiVersion: v1kind: PersistentVolumeClaimmetadata: name: grafana-pvc namespace: kube-monspec: accessModes: - ReadWriteOnce resources: requests: storage: 10Gi storageClassName: nfs-client---apiVersion: apps/v1kind: Deploymentmetadata: label

    1.6K40编辑于 2023-01-17
  • 来自专栏小手冰凉

    K8s 安装部署

    k8s为什么叫k8s呢? 因为k8s是Kubernetes的简称,因为K和S之间有8个字母,所以才会被称为k8s。 关于k8s详细介绍可参考k8s中文文档 一、环境准备 主机名 IP 角色 基于服务 docker-k8s01 192.168.171.151 master docker docker-k8s02 192.168.171.150 部署docker服务可参考:部署 Docker 二、部署前准备工作 1、检查docker版本、关闭防火墙及Selinux、清空iptables规则、禁用Swap交换分区 注:以下操作需要在三台docker 群集 1、安装部署k8s相关工具 注:以下操作在master主机上进行 #安装k8s的master所需组件 [root@docker-k8s01 ~]# yum -y install kubelet-1.15.0 v1.15.0 5、部署后的优化配置 为了以后更为方便的使用k8s,建议优化以下几项: 设置table键的默认间距; 设置kubectl命令自动补全; 优化开机自启配置。

    10.7K23发布于 2020-08-19
  • 来自专栏LinkinStar's Blog

    k8s 部署 prometheus

    看到很多部署 prometheus 到 k8s 集群的教程,发现都是非常麻烦的各种配置,懒人的我就想整个一键部署的,开箱即用的,既然有了 helm 那肯定只要一个 charts 就可以搞定了吧,想着就是这样 下面记录一下使用过程,方便以后进行部署。 PS: 本文适用于开发者单 k8s 集群部署 prometheus,如果是运维可建议进行独立部署,一方面不需要占用集群内部资源并保证多活,另一方面可以支持多集群扩展。 而当我们使用 k8s 部署 prometheus 的时候就会发现这件事很容易了。 k8s 内部的 prometheus 能很容易获取到 k8s 中各种指标和参数,使用 helm 部署也非常方便,基本一个命令就搞定了 如果你只需要基本的 cpu 和内存信息,那么这样就已经完全够用了,

    2.3K40编辑于 2022-09-01
  • 来自专栏小黑博客

    K8S部署nexus

    apiVersion: v1 kind: PersistentVolumeClaim metadata: name: nexus-pvc # 自定义 namespace: nexus # 自定义,与本文前后所有命名空间保持一致 labels: pvc: nexus-pvc # 自定义 spec: storageClassName: nfs-client # 创建的StorageClass的名字 accessModes: - ReadWriteOnce resources:

    94220编辑于 2023-01-14
  • 来自专栏禅境花园

    centos8 禅道部署

    环境 CentOS 8 + 禅道16.x + Nginx + Mysql + PHP PHP 配置 centos 自带的有 php环境 sudo dnf module list php # 查看版本,默认

    96820编辑于 2022-10-25
  • 来自专栏IT小圈

    源码部署 Mariadb - CentOS8

    系统:Centos 8 mariadb-10.5.2 2. libjpeg-devel libjpeg \ libpng-devel freetype freetype-devel libicu-devel \ libzip cmake ncurses-devel 安装部署

    51710编辑于 2023-06-15
  • 来自专栏乌龟哥哥默认学习专栏

    k8s安装部署

    Kubernetes作为容器的编排平台,它是以集群的形式为业务提供服务。所以在日常的工作中,作为Kubernetes平台的维护者,会经常对集群进行管理。 ="color: #75715e;line-height: 26px;">$ cat > /etc/sysctl.d/k8s.conf #75715e;line-height: 26px;"># See man pages fstab(5), findfs(8) , mount(8) and/or blkid(8) for$ systemctl restart containerd
    8

    1.8K00编辑于 2023-11-02
  • 来自专栏奶盖笔记

    K8S 部署 elasticsearch

    直接使用centerOS 虚拟机 通过docker 命令拉取 docker pull elastic/filebeat:7.6.1 部署单机版elasticsearch 创建部署文件 [root@k8s-master 查看services 是否启动成功 [root@k8s-master elk]# kubectl get services NAME TYPE CLUSTER-IP -76ffcf4f9c-8mnjb Name: elasticsearch-76ffcf4f9c-8mnjb Namespace: default Priority: 内存不足导致运行失败 删除pod,重修修改 k8s-es.yml 文件 的启动内存大小重新启动即可 [root@k8s-master elk]# kubectl delete deployment elasticsearch READY STATUS RESTARTS AGE elasticsearch-76ffcf4f9c-8mnjb 0/1 Running 0 7s 部署集群版

    4.7K30编辑于 2021-12-04
  • 来自专栏summerking的专栏

    传统部署方式与k8s部署区别

    在没有使用k8s之前的前后端分离项目部署,一般是依托于宿主机上的nginx。前端静态资源走nginx,后端接口会使用nginx做代理。而此时,nginx是提前安装的。 使用k8s之后,区别如下: 传统的前后端分离部署架构 使用k8s后的前后端分离部署架构

    1.5K20编辑于 2022-09-19
  • 来自专栏开源部署

    Tomcat-8 Manager动态部署

    tomcat8 安装请参考: http://www.linuxidc.com/Linux/2014-10/108065.htm。 点击左边的Tomcat Manager链接,提示输入用户名和密码,本文都是coresun,然后可以看到以下页面: 将项目导出为war包,点击“选择文件”,将war加入进去,点击Deploy,至此动态部署完成

    38310编辑于 2022-07-03
  • 来自专栏AndrekzWu的专栏

    k8s部署实战

    一、微服务架构部署的方案 部署项 说明 备注 代码仓库 gogs 镜像仓库 harbor 容器方案 k8s/docker 网关 kong 业务服务 GO service 日志 ELK filebeat 监控 Prometheus grafana 二、微服务架构部署的实施 2.1 k8s 2.1.1 服务器准备 采用vm ware虚拟机,导入两个centos 7.4系统(2 core 2G) vmware node1节点:hostnamectl --static set-hostname k8s-node1 node2节点:hostnamectl --static set-hostname k8s-node2 kubeadm.yaml.yaml advertiseAddress 本机地址,例如 192.168.1.179 (虚拟机master节点) kubernetesVersion: v1.15.0 // k8s /k8s/iris-template/ingress.yaml 其中 deployment,如果镜像是本地的,可以修改参数  imagePullPolicy: IfNotPresent 或 Never

    1.2K40编辑于 2022-09-21
领券