首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏技术杂记

    Consul 集群2

    启动第二个节点 [root@docker consul]# consul agent -data-dir /tmp/consul -node=a2 -bind=192.168.100.103 -config-dir Node name: 'a2' Datacenter: 'dc1' Server: false (bootstrap: false) Client > Log data will now stream in as it occurs: 2016/03/18 21:51:55 [INFO] serf: EventMemberJoin: a2 此时已经分别在104和103上启动了两个代理a1和a2,a1准备用来作server ,a2用来作client,但它们彼此还互不认识,都是自己的单节点集群中的唯一节点,可以通过 consul members 192.168.100.103:8301 alive client 0.6.4 2 dc1 [root@docker ~]# ---- 加入集群 使用a1来加入a2 [root

    51710编辑于 2021-12-01
  • 来自专栏技术杂记

    etcd 集群2

    打开防火墙端口 [root@docker etcd-v2.2.4-linux-amd64]# firewall-cmd --list-all public (default, active) interfaces: eno16777736 eno33554960 sources: services: dhcpv6-client ssh ports: 3306/tcp 80/tcp 40000/tcp 8080/tcp masquerade: no forward-ports:

    24010编辑于 2022-01-19
  • 来自专栏技术杂记

    ZooKeeper 集群2

    Dec 3 19:33 /tmp/zookeeper1/zookeeper_server.pid -rw-r--r-- 1 root root 4 Dec 3 19:33 /tmp/zookeeper2/ zookeeper] [zk: localhost:2180(CONNECTED) 1] create /defg defg Created /defg [zk: localhost:2180(CONNECTED) 2] connectString=localhost:2182 sessionTimeout=30000 watcher=org.apache.zookeeper.ZooKeeperMain$MyWatcher@2e3fe12e

    34120编辑于 2022-03-25
  • 来自专栏hfl的运维笔记

    TKE独立集群2

    22h hpa-metrics-server-5fd795c489-ppfcz 1/1 Running 0 22h ip-masq-agent-5d2dx 22h service-controller-85fd87859c-8cw5q 1/1 Running 0 22h tke-bridge-agent-2pc5q 22h tke-bridge-agent-s4rv9 1/1 Running 0 22h tke-cni-agent-dswc2

    1.7K40发布于 2020-06-29
  • 来自专栏golang云原生new

    MongoDB 主从集群 2

    ,计算出来结果是 2,则 mongodb 会在 这俩中选举一个出来 这个选举的方式是用的大多数选举机制,即为 集群的副本数 / 2 +1 , (一般集群都是奇数个的) 因为如果是偶数个副本,且他们又处于 2 个网络环境中,若其中一个副本挂掉,就会出现服务不可用的情况,所有我们选择集群使用奇数个,主要是为了保证高可用 可以举一个例子: 例如,有 4 个 mongodb 副本,部署在同一个环境中,则按照大多数选举机制 还是刚才的 1 主 2 次的集群,当客户端发送写操作给到主的时候,主接收到了,正要将其数据同步给两个次副本的时候,主副本挂掉了 这个时候,就会通过上述的大多数选举机制来选举出一个新的主副本,暂定选中 mongodb 2 那么,刚才的写操作,由于主副本挂掉,没有及时将数据同步到 次副本,那么mongodb 集群里面会开启重写,重新将刚才的写操作写入到新的主副本中 此时,刚才旧的主副本恢复过来后,就会将自己挂掉之前的写操作要同步给集群中的副本 ,只不过主副本变成了 mongodb 2 集群的读写分离 在 mongodb 集群中,默认情况下,客户端的写操作是给 主副本的,读操作也是从主副本中读 我们也可以设置客户端直接从我们指定的次副本中读取数据

    46730编辑于 2023-02-16
  • 来自专栏技术杂记

    RabbitMQ集群I2

    还有两种启动方式 前台启动 [root@h102 ~]# rabbitmq-server RabbitMQ 3.5.6. Copyright (C) 2007-2015 Pivotal Software, Inc. ## ## Licensed under the MPL. See http://www.rabbitmq.com/ ## ## ########## Logs: /var/log/rabbitmq/rabbit@h102.log

    27820编辑于 2022-05-04
  • 来自专栏技术杂记

    RabbitMQ集群II2

    2.14.5"}]}, {os,{unix,linux}}, {erlang_version,"Erlang R14B04 (erts-5.8.5) [source] [64-bit] [smp:2: 2] [rq:2] [async-threads:64] [kernel-poll:true]\n"}, {memory,[{total,28139112}, {connection_readers 2.14.5"}]}, {os,{unix,linux}}, {erlang_version,"Erlang R14B04 (erts-5.8.5) [source] [64-bit] [smp:2: 2] [rq:2] [async-threads:64] [kernel-poll:true]\n"}, {memory,[{total,28100032}, {connection_readers

    21820编辑于 2022-05-03
  • 来自专栏大数据那些年

    教你快速搭建Kafka集群2)——Kafka集群安装部署

    上一篇快速认识Kafka阶段(1)——最详细的Kafka介绍给大家简单介绍了消息队列和kafka的一些基本内容,下面教大家怎样去安装部署Kafka集群哦!!!!!! 码字不易 先点个赞吧! ? 1、初始化环境准备 安装jdk,安装zookeeper并保证zk服务正常启动 2、下载安装包并上传解压 点击文字下载Kafka安装包 提取码:r766 node01执行以下命令,下载并解压 cd node03使用以下命令修改kafka配置文件 cd /export/servers/kafka_2.11-1.0.0/config vim server.properties broker.id=2 三台机器也可以执行以下命令停止kafka集群 cd /export/servers/kafka_2.11-1.0.0 bin/kafka-server-stop.sh 以上就是kafka的集群搭建, 其实很简单,接下来给大家更新 kafka集群的操作,点个关注点个赞再走吧!!!

    92830发布于 2021-04-13
  • 来自专栏软件开发-青出于蓝

    Spark集群安装方式2

    环境: jdk1.8、hadoop-2.7、spark-1.6、三台centos7(如下List-1所示) List-1 如下30上部署master;31上部署worker1;32上部署worker2 192.168.33.30 master 192.168.33.31 worker1 192.168.33.32 worker2     将jdk1.8、hadoop-2.7、spark-1.6文件夹放到三台机器的 );     为什么List-2中需要将hadoop的classpath加入到其中,是因为spark自1.4之后,编译都是没有将hadoop的classpath编译进去的,所以必须在spark-env.sh List-4 /bin/spark-class org.apache.spark.deploy.worker.Worker spark://192.168.33.30:7077     到此我们的集群启动完成了 out        之后看masterWebUrl,可以看到集群信息了。

    44710发布于 2019-05-06
  • 来自专栏腾讯云容器运维

    tke集群搭建Linkerd2

    Linkerd 是完全开源的,在 Apache v2 下获得许可,是一个云原生计算基金会毕业的项目。 Linkerd 具有三个基本组件:UI、数据平面和控制平面。 这是因为您没有在集群上安装控制平面。别担心,我们会尽快解决这个问题的。 Server version: unavailable 第 2 步:验证您的Kubernetes 集群 Kubernetes集群可以以许多不同的方式配置。 第 3 步:将控制平面安装到集群上 现在,您已经将 CLI 本地运行,并且已准备好运行的集群,是时候安装控制平面了。 将此表单插入然后指示 Kubernetes 将这些资源添加到您的集群中。 根据集群的互联网连接速度,控制平面完成安装需要一两分钟。

    52330发布于 2021-11-17
  • 来自专栏全栈程序员必看

    H2数据库集群_数据库集群搭建

    H2数据库集群 1. H2数据库简介 1.1 H2数据库优势 常用的开源数据库:H2,Derby,HSQLDB,MySQL,PostgreSQL。 H2集群 3.1 集群综述 数据库支持简单的集群/高可用性机制。 Server1停掉后,server2能继续提供数据库服务,集群工具自动不会同步数据,此时只能靠手工删除server1中的数据库,把server2的复制过去,重启集群服务(这个结论感觉跟官方说明不太一样, 集群的时候,server2,停掉后,server1能继续提供数据库服务,在server2删掉数据文件后重启,需要重新在用集群工具建立集群,此时需要注意urlSource 应为server1,urlTarget server1,停掉后,server2同样能继续提供数据库服务,在server1删掉数据文件后重启,需要重新在用集群工具建立集群,此时需要更换urlSource 应为server2,urlTarget

    2.6K20编辑于 2022-11-04
  • 来自专栏技术墨客

    Hazelcast集群服务(2)——Hazelcast基本配置

    我们在创建Hazelcast集群时可以引入配置文件。下面的代码例子展示了如何引入自定义的配置文件。 demo.config"); // 获取系统默认的map配置 MapConfig mapConfigDefault = config.getMapConfig("default"); // 输出集群监听的起始端口号 = instance2.getMap("defaultMap"); System.out.println("Default map value:" + testMap2.get(1)); Map <Integer, String> configMap2 = instance2.getMap("configMap"); System.out.println("Config map value: 例如有下面2份配置文件。

    4.1K30发布于 2018-08-15
  • 来自专栏话梅糖のAndroid学习

    Hadoop集群部署教程-P2

    Hadoop集群部署教程-P2 由于提供的参考材料与Hadoop部署教程的后续章节(如Hadoop环境配置、核心文件修改等)无关,我将基于专业知识继续完善Hadoop部署教程的后续章节。 Hadoop集群部署教程(续) 第五章:Hadoop环境配置 5.1 配置Java环境 在所有节点上设置JAVA_HOME 编辑hadoop-env.sh​文件: vi $HADOOP_HOME/etc <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> 第六章:集群初始化与启动 6.2 启动Hadoop集群 启动HDFS <math mathnormal" style="margin-right:0.13889em;">P<span class="vlist-t vlist-t<em>2</em>"

    21000编辑于 2025-04-17
  • 来自专栏宗恩

    OushuDB 管理指南 集群高可用(2

    配置备用主节点 可以在 Oushu Database 的安装过程中配置备用主节点, 也可以向现有集群中添加。 中有关 oushum2 的配置。 向现有群集添加备用主节点 请确保备用主节点的主机已安装了 Oushu Database 并相应地进行了配置: ● 已创建 gpadmin 系统用户。

    26710编辑于 2023-05-08
  • 来自专栏测试技术圈

    RabbitMQ集群整合SpringBoot2.x

    RabbitMQ相信大家已经再熟悉不过了,作为业界四大主流消息中间件之一(Apache RocketMQ、Apache Kafka、Apache ActiveMQ、RabbitMQ),它具有非常好的性能和可靠性的集群模式 SpringBoot作为互联网开发利器已经不需要我再过多介绍什么,接下来我们一起从零开始构建RabbitMQ、并且与SpringBoot2.x的整合吧! ? 一、安装RabbitMQ集群十步走! 首先启动三个节点:rabbitmq-server -detached 然后把72和73分别加入到71中,组成集群 [--ram]为节点以什么方式加入到集群中 ram为内存 存储 默认不加为disk磁盘存储 : rabbitmqctl set_cluster_name rabbitmq_cluster1 第八步:查看集群状态: rabbitmqctl cluster_status ,如下所示表示集群构建OK 二.RabbitMQ与SpringBoot2.x整合 生产者端: 第一步:pom.xml配置如下 <?xml version="1.0" encoding="UTF-8"?

    2.3K20发布于 2019-08-01
  • 来自专栏写代码和思考

    Nacos 学习笔记2 - 搭建 Nacos 集群

    背景 生产环境中往往采用集群的方式保证Nacos的高可用,本文记录了搭建的过程。 Nacos集群的搭建时要注意:1.xx 版本和 2.xx 版本有区别。 2. 安装Nacos 集群模式部署 这个快速开始手册是帮忙您快速在你的电脑上,下载安装并使用Nacos,部署生产使用的集群模式。 3个或3个以上Nacos节点才能构成集群。 2.2. 启动服务器 在 Linux/Unix/Mac 下安装 (1) 单机模式 Stand-alone mode sh startup.sh -m standalone (2) 集群模式 sh startup.sh Nacos 2.0.0 和 1.x 的区别 注意 开放gRPC端口 Nacos2.0版本相比1.X新增了gRPC的通信方式,因此需要增加2个端口。

    2.6K20编辑于 2021-12-06
  • 来自专栏后台及大数据开发

    kubernetes集群搭建(2):docker私有仓库

    kubernetes集群搭建(1):环境准备 中各节点已经安装好了docker,请确认docker已启动并正常运行 1.通过命令启动私库 docker run -d -p 5000:5000 --privileged =true -v /data/history:/data/registry registry 2.确认启动成功 [root@localhost ~]# docker ps CONTAINER ID :5000->5000/tcp quirky_liskov #查看私库中的镜像 [root@localhost ~]# curl -XGET http://192.168.100.6:5000/v2/ rhel7/pod-infrastructure","server","tomcat"]} [root@localhost ~]# #查看某一镜像的版本信息 访问方式为 http://ip:port/v2/ 镜像名字/tags/list [root@localhost ~]# curl -XGET http://192.168.100.6:5000/v2/server/tags/list {"name":

    59410发布于 2018-08-02
  • MySQL PXC 集群死锁分析案例-2

    接前文 二、节点日志分析108节点 ■■ 以下日志显示,3:18分109节点出现问题(问题详见"109节点日志分析"),继而109节点被驱逐出去集群。 ■■ 随后的日志显示,04:00有节点重启加入集群: 2024-07-15T04:00:07.309528Z 0 [Note] [MY-000000] [Galera] (99999999-9908, Galera] cleaning up 99999999-9909 (tcp://[9999:9999:9999:9999::6d]:4567) ■■ 之后的日志显示,109节点再次加入未成,继续被驱逐出集群 三、节点日志分析110节点 ■■ 前面的日志同108节点 ■■ 4:03的日志显示,109节点再次加入未成,继续被驱逐出集群。 1、11:16 节点109 第二次发生大事务,全局缓存页达到了 570MB,报错,导致节点109 11:18 停止服务,被驱逐出集群

    44310编辑于 2024-07-26
  • 来自专栏瞎说开发那些事

    服务治理 2 --- Eureka集群

    指向其他的注册中心 eureka.client.service-url.defaultZone=http://127.0.0.1:1112/eureka 再创建一个配置文件application-peer2. spring.profiles.active=peer1 java -jar eureka-server-0.0.1-SNAPSHOT.jar --spring.profiles.active=peer2 02 2. 服务的发现与消费 1. 生产服务 服务发现与消费主要涉及到两个内容:一是发现服务,而是对发现的服务进行消费(即调用)。 2. 消费服务 服务消费者采用Ribbon负载均衡器来实现。 四、小结 通过本文简单介绍了Eureka集群的配置中以及如何在集群中发布服务和消费服务。

    719100发布于 2018-06-19
  • 来自专栏大数据成长之路

    快速入门Flink (2) —— Flink 集群搭建

    1)local( 本地) ——单机模式, 一般不使用 2)standalone ——独立模式, Flink 自带集群,开发测试环境使用 3)yarn——计算资源统一由 Hadoop YARN 管理, 生产环境测试 1.1 standalone 集群环境 1.1.1 准备工作 1) jdk1.8 及以上【 配置 JAVA_HOME 环境变量】 2) ssh 免密码登录 2) 分离模式 直接提交任务给 YARN ,大作业,适合使用这种方式。 ? 一旦将 Flink 部署到 YARN 群集 中,它就会显示 Job Manager 的连接详细信息),其中 2 个 Container 启动 TaskManager (-n 2),每个 TaskManager ■ 使用 flink 直接提交任务 bin/flink run -m yarn-cluster -yn 2 .

    3K20发布于 2021-01-27
领券