首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    H2数据库集群_数据库集群搭建

    H2数据库集群 1. H2数据库简介 1.1 H2数据库优势 常用的开源数据库:H2,Derby,HSQLDB,MySQL,PostgreSQL。 H2集群 3.1 集群综述 数据库支持简单的集群/高可用性机制。 Server2停掉后,server1能继续提供数据库服务。并在server2重启后,集群工具自动同步数据。 Server1停掉后,server2能继续提供数据库服务,集群工具自动不会同步数据,此时只能靠手工删除server1中的数据库,把server2的复制过去,重启集群服务(这个结论感觉跟官方说明不太一样, 集群的时候,server2,停掉后,server1能继续提供数据库服务,在server2删掉数据文件后重启,需要重新在用集群工具建立集群,此时需要注意urlSource 应为server1,urlTarget

    2.6K20编辑于 2022-11-04
  • 来自专栏架构驿站

    分布式数据库Couchbase 集群迁移-2

    在之前的文章中,我们介绍了基于 CBBACK 以及 CBRESTORE 等操作方式进行的分布式数据库 Couchbase 集群迁移方案,具体可参考链接:分布式数据库Couchbase 集群迁移 其实,在基于不同的业务场景以及架构方案,针对分布式数据库 Couchbase 集群迁移有多种不同的实现策略,只有能够达到高效、稳定及安全,才是最优选择。 在进行主题之前先补充一下分布式数据库 Couchbase 一些基本概念:在 Couchbase 的集群架构中,没有中心节点和 Router 的概念,这些工作是由 Smartclient 完成的,在客户端与 什么是 Buckets,Buckets 是独立的虚拟的数据容器,一个 Bucket 就是 Couchbase服务器集群中的一个逻辑组,可以被集群中的多个客户端应用使用。 基本思路: 1、备份老的 Couchbase 服务数据 2、将新 Couchbase 服务器加入到老服务器集群中,并通过 Rebalance 同步两台服务器 Cache 数据

    80440编辑于 2021-12-09
  • 来自专栏技术杂记

    Consul 集群2

    启动第二个节点 [root@docker consul]# consul agent -data-dir /tmp/consul -node=a2 -bind=192.168.100.103 -config-dir Node name: 'a2' Datacenter: 'dc1' Server: false (bootstrap: false) Client > Log data will now stream in as it occurs: 2016/03/18 21:51:55 [INFO] serf: EventMemberJoin: a2 此时已经分别在104和103上启动了两个代理a1和a2,a1准备用来作server ,a2用来作client,但它们彼此还互不认识,都是自己的单节点集群中的唯一节点,可以通过 consul members 192.168.100.103:8301 alive client 0.6.4 2 dc1 [root@docker ~]# ---- 加入集群 使用a1来加入a2 [root

    51710编辑于 2021-12-01
  • 来自专栏技术杂记

    etcd 集群2

    打开防火墙端口 [root@docker etcd-v2.2.4-linux-amd64]# firewall-cmd --list-all public (default, active) interfaces: eno16777736 eno33554960 sources: services: dhcpv6-client ssh ports: 3306/tcp 80/tcp 40000/tcp 8080/tcp masquerade: no forward-ports:

    24010编辑于 2022-01-19
  • 来自专栏技术杂记

    ZooKeeper 集群2

    Dec 3 19:33 /tmp/zookeeper1/zookeeper_server.pid -rw-r--r-- 1 root root 4 Dec 3 19:33 /tmp/zookeeper2/ zookeeper] [zk: localhost:2180(CONNECTED) 1] create /defg defg Created /defg [zk: localhost:2180(CONNECTED) 2] connectString=localhost:2182 sessionTimeout=30000 watcher=org.apache.zookeeper.ZooKeeperMain$MyWatcher@2e3fe12e

    34220编辑于 2022-03-25
  • 来自专栏hfl的运维笔记

    TKE独立集群2

    22h hpa-metrics-server-5fd795c489-ppfcz 1/1 Running 0 22h ip-masq-agent-5d2dx 22h service-controller-85fd87859c-8cw5q 1/1 Running 0 22h tke-bridge-agent-2pc5q 22h tke-bridge-agent-s4rv9 1/1 Running 0 22h tke-cni-agent-dswc2

    1.7K40发布于 2020-06-29
  • 来自专栏golang云原生new

    MongoDB 主从集群 2

    ,计算出来结果是 2,则 mongodb 会在 这俩中选举一个出来 这个选举的方式是用的大多数选举机制,即为 集群的副本数 / 2 +1 , (一般集群都是奇数个的) 因为如果是偶数个副本,且他们又处于 还是刚才的 1 主 2 次的集群,当客户端发送写操作给到主的时候,主接收到了,正要将其数据同步给两个次副本的时候,主副本挂掉了 这个时候,就会通过上述的大多数选举机制来选举出一个新的主副本,暂定选中 mongodb 2 那么,刚才的写操作,由于主副本挂掉,没有及时将数据同步到 次副本,那么mongodb 集群里面会开启重写,重新将刚才的写操作写入到新的主副本中 此时,刚才旧的主副本恢复过来后,就会将自己挂掉之前的写操作要同步给集群中的副本 ,可是这个时候,新的主副本就会告诉就的主副本,表示你的版本太旧了,需要回滚 这里刚才有说到重写,其实写操作既写入到了旧主副本中,也写入了新的主副本中,可是他们的插入数据库的 id 是不同的,因此新的主副本认为旧的主副本需要回滚 现在,集群又开始了正常的工作和运转,只不过主副本变成了 mongodb 2 集群的读写分离 在 mongodb 集群中,默认情况下,客户端的写操作是给 主副本的,读操作也是从主副本中读 我们也可以设置客户端直接从我们指定的次副本中读取数据

    46730编辑于 2023-02-16
  • 来自专栏数据库干货铺

    零基础OceanBase数据库入门(2):查看集群基本信息

    作为一款原生分布式数据库,OceanBase的集群是所有操作和运维的核心载体。 零基础OceanBase数据库入门:搭建你的第一个OceanBase数据库 一、 demo本机部署 因为官方查看集群基本信息的demo页面需在电脑端打开,才能保证完整的操作体验! 部署 其他部署步骤也可以参考 零基础OceanBase数据库入门:搭建你的第一个OceanBase数据库 当前我用的这个版本用 sh bin/install.sh即可安装 运行完毕如下: 执行命令让环境变量生效 连接集群 使用 root 用户登录集群的 sys 租户。 查询数据库列表 命令行: 可以通过如下SQL,查询已存在的数据库的相关信息。

    11610编辑于 2026-03-31
  • 来自专栏技术杂记

    RabbitMQ集群I2

    还有两种启动方式 前台启动 [root@h102 ~]# rabbitmq-server RabbitMQ 3.5.6. Copyright (C) 2007-2015 Pivotal Software, Inc. ## ## Licensed under the MPL. See http://www.rabbitmq.com/ ## ## ########## Logs: /var/log/rabbitmq/rabbit@h102.log

    27820编辑于 2022-05-04
  • 来自专栏技术杂记

    RabbitMQ集群II2

    2.14.5"}]}, {os,{unix,linux}}, {erlang_version,"Erlang R14B04 (erts-5.8.5) [source] [64-bit] [smp:2: 2] [rq:2] [async-threads:64] [kernel-poll:true]\n"}, {memory,[{total,28139112}, {connection_readers 2.14.5"}]}, {os,{unix,linux}}, {erlang_version,"Erlang R14B04 (erts-5.8.5) [source] [64-bit] [smp:2: 2] [rq:2] [async-threads:64] [kernel-poll:true]\n"}, {memory,[{total,28100032}, {connection_readers

    21920编辑于 2022-05-03
  • 来自专栏Golang语言社区

    数据库集群技术漫谈

    本篇文章将对集群的概念、形式以及目前主流的数据库集群技术进行探讨。 数据库集群的形式 数据库集群和扩展不像应用程序扩展那样容易,因为从数据库端来说,一旦涉及到了集群,往往会涉及到数据库层面的同步,因此从是否存在数据冗余这个角度来讲,我们可以从大面上把数据库集群分为以下两种形式 将数据库中的数据按照某一标准分布到多台机器中,查询或插入时按照条件查询或插入对应的分区。 另一种是每一个节点完全独立,节点之间通过网络连接,通常是通过光钎等专用网络。如图2所示。 ? 图2.Share-Nothing冗余架构 在Share-Nothing架构中,每一个节点都拥有自己的内存和存储,都保留数据的完整副本。 小结 本文从一个比较高的层面谈到了数据库集群技术。从数据库应用层面的Share-Disk集群直到集群的最高形式-能够提供负载均衡的集群,并列举了一些主流的商用产品。

    1.4K70发布于 2018-03-23
  • 来自专栏程序猿的大杂烩

    浅谈数据库集群方案

    而以上这些常见问题都是单点数据库带来的限制,为了解决这些问题,达到高性能、高可用的目的,我们就需要在系统架构设计中采用数据库集群方案。 性能测试 既然单点数据库存在性能问题,那么有没有实际数据呢? 下面我们就来对单点数据库进行一个性能测试,看看其并发极限大概是多少。我这里使用了一台22G的云服务,mysql版本为8.0.18。 ---- PXC集群方案 上一小节介绍了单点数据库存在的问题,以及进行了一个简单的性能测试。为了应对这些问题,我们需要将单点数据库集群转变。 我们都知道mysql的单表数据处理的性能极限在2千万左右,当数据达到这个量级时,mysql的处理性能就会很低下了。 而上图中每个PXC节点都会进行数据的同步,所以当每个节点的数据量级都达到2千万时,整个集群的性能就会降低。 这时就需要增加多一个集群,并且这两个集群之间的数据是不进行同步的。

    1.2K20发布于 2020-09-23
  • 来自专栏爱编码

    数据库】Redis集群

    sentinel monitor mymaster 192.168.11.128 6379 2 # sentinel author-pass定义服务的密码,mymaster是服务名称,123456是Redis 首先是主机(192.168.11.128)的Redis服务进程,然后启动从机的服务进程,最后启动3个哨兵的服务进程集群 搭建集群工作需要以下三个步骤: 1.准备节点 Redis集群一般由多个节点组成,节点数量至少为 6个才能保证组成完整高可用的集群。 每个节点需要开启配置cluster-enabled yes,让Redis运行在集群模式下。建议为集群内所有节点统一目录,一般划分三个目录:conf、data、log,分别存放配置、数据和日志相关文件。 127.0.0.1:6381 master - 0 1468073979589 2 connected 节点建立握手之后集群还不能正常工作,这时集群处于下线状态,所有的数据读写都被禁止。

    1K20发布于 2019-07-03
  • 来自专栏Golang语言社区

    数据库集群技术漫谈

    本篇文章将对集群的概念、形式以及目前主流的数据库集群技术进行探讨。 数据库集群的形式 数据库集群和扩展不像应用程序扩展那样容易,因为从数据库端来说,一旦涉及到了集群,往往会涉及到数据库层面的同步,因此从是否存在数据冗余这个角度来讲,我们可以从大面上把数据库集群分为以下两种形式 将数据库中的数据按照某一标准分布到多台机器中,查询或插入时按照条件查询或插入对应的分区。 另一种是每一个节点完全独立,节点之间通过网络连接,通常是通过光钎等专用网络。如图2所示。 ? 图2.Share-Nothing冗余架构 在Share-Nothing架构中,每一个节点都拥有自己的内存和存储,都保留数据的完整副本。 小结 本文从一个比较高的层面谈到了数据库集群技术。从数据库应用层面的Share-Disk集群直到集群的最高形式-能够提供负载均衡的集群,并列举了一些主流的商用产品。

    1.3K50发布于 2018-03-23
  • 来自专栏开源部署

    TIDB 数据库集群部署

    TiDB数据介绍  1.1、TiDB数据简介 TiDB 是 PingCAP 公司设计的开源分布式 HTAP (Hybrid Transactional and Analytical Processing) 数据库 云原生 SQL 数据库 TiDB 是为云而设计的数据库,支持公有云、私有云和混合云,使部署、配置和维护变得十分简单。 PD Server Placement Driver (简称 PD) 是整个集群的管理模块,其主要工作有三个:一是存储集群的元信息(某个 Key 存储在哪个 TiKV 节点);二是对 TiKV 集群进行调度和负载均衡 1 ansible-playbook deploy.yml 2.3、启动Tidb集群 1 ansible-playbook start.yml 2.4、测试集群 # 使用 MySQL 客户端连接测试, 2、添加 --join="http://172.16.10.1:2379" \,IP 地址 (172.16.10.1) 可以是集群内现有 PD IP 地址中的任意一个。

    1.7K10编辑于 2022-08-17
  • 来自专栏大数据那些年

    教你快速搭建Kafka集群2)——Kafka集群安装部署

    上一篇快速认识Kafka阶段(1)——最详细的Kafka介绍给大家简单介绍了消息队列和kafka的一些基本内容,下面教大家怎样去安装部署Kafka集群哦!!!!!! 码字不易 先点个赞吧! ? 1、初始化环境准备 安装jdk,安装zookeeper并保证zk服务正常启动 2、下载安装包并上传解压 点击文字下载Kafka安装包 提取码:r766 node01执行以下命令,下载并解压 cd node03使用以下命令修改kafka配置文件 cd /export/servers/kafka_2.11-1.0.0/config vim server.properties broker.id=2 三台机器也可以执行以下命令停止kafka集群 cd /export/servers/kafka_2.11-1.0.0 bin/kafka-server-stop.sh 以上就是kafka的集群搭建, 其实很简单,接下来给大家更新 kafka集群的操作,点个关注点个赞再走吧!!!

    92930发布于 2021-04-13
  • 来自专栏软件开发-青出于蓝

    Spark集群安装方式2

    环境: jdk1.8、hadoop-2.7、spark-1.6、三台centos7(如下List-1所示) List-1 如下30上部署master;31上部署worker1;32上部署worker2 192.168.33.30 master 192.168.33.31 worker1 192.168.33.32 worker2     将jdk1.8、hadoop-2.7、spark-1.6文件夹放到三台机器的 );     为什么List-2中需要将hadoop的classpath加入到其中,是因为spark自1.4之后,编译都是没有将hadoop的classpath编译进去的,所以必须在spark-env.sh List-4 /bin/spark-class org.apache.spark.deploy.worker.Worker spark://192.168.33.30:7077     到此我们的集群启动完成了 out        之后看masterWebUrl,可以看到集群信息了。

    44710发布于 2019-05-06
  • 来自专栏实用工具入门教程

    如何部署 Galera 数据库集群

    MariaDB数据库管理系统是MySQL的一个分支,主要由开源社区在维护,采用GPL授权许可。 一旦我们启动了集群,第一个节点的密码就会被复制到其他节点,因此debian.cnf值不再与数据库中的密码匹配。 测试复制 我们的集群可以执行从任何节点到任何其他节点的复制,称为主动 - 主动或主 - 主复制。让我们测试复制是否按预期工作。 写入第一个节点: 我们首先在第一个节点上进行数据库更改。 以下命令将创建一个名为playground的数据库,并在其中调用一个equipment表。 配合腾讯云云关系型数据库,可将您从耗时的数据库管理任务中解放出来,让您有更多时间专注于您的应用和业务。

    1.9K32发布于 2018-11-29
  • 来自专栏追不上乌龟的兔子

    使用MongoDB构建数据库集群

    在本指南中,我们将解释如何为高可用性分布式数据集设置分片集群。 build-database-clusters-with-mongodb.png 数据扩展策略有两大类。 集群架构 在开始之前,让我们回顾一下我们将要创建的设置的组件: 配置服务器 - 存储群集其余部分的元数据和配置设置。 查询路由器 - mongos守护程序充当客户端应用程序和集群分片之间的接口。由于数据分布在多个服务器之间,因此需要将查询路由到存储给定信息的分片。查询路由器在应用程序服务器上运行。 取消注释sharding部分并将主机在集群中的角色配置为配置服务器: 1 2 sharding: clusterRole: "configsvr" 完成这些更改后重新启动mongod服务: sudo 文档使用JSON格式使用可由应用程序查询的键值对来存储数据 在数据库级别启用分片 首先,我们将在数据库级别启用分片,这意味着给定数据库中的集合可以分布在不同的分片中。

    3.1K30发布于 2018-09-06
  • 来自专栏腾讯云容器运维

    tke集群搭建Linkerd2

    Linkerd 是完全开源的,在 Apache v2 下获得许可,是一个云原生计算基金会毕业的项目。 Linkerd 具有三个基本组件:UI、数据平面和控制平面。 这是因为您没有在集群上安装控制平面。别担心,我们会尽快解决这个问题的。 Server version: unavailable 第 2 步:验证您的Kubernetes 集群 Kubernetes集群可以以许多不同的方式配置。 第 3 步:将控制平面安装到集群上 现在,您已经将 CLI 本地运行,并且已准备好运行的集群,是时候安装控制平面了。 将此表单插入然后指示 Kubernetes 将这些资源添加到您的集群中。 根据集群的互联网连接速度,控制平面完成安装需要一两分钟。

    52330发布于 2021-11-17
领券