cd /app/kafka-cluster # 解压安装 mv /root/kafka_2.13-3.9.0.tgz . tar xvf kafka_2.13-3.9.0.tgz mv kafka _2.13-3.9.0 kafka mkdir -p /app/kafka-cluster/kafka/kafka-logs 修改配置 # 修改配置 cd /app/kafka-cluster/kafka "; }; EOF 客户配置认证 # 客户端配置登录认证 cat <<EOF | tee /app/kafka-cluster/kafka/config/kafka_client_jaas.conf "; }; EOF 配置启动认证 # 修改kafka-server-start.sh脚本,新增 -Djava.security.auth.login.config=/app/kafka-cluster /kafka/bin/kafka-server-start.sh /app/kafka-cluster/kafka/config/server.properties ExecStop=/app/kafka-cluster
/kafka/kafka-logs修改配置# 修改配置cd /app/kafka-cluster/kafka/configvim server.properties# 修改项:broker.id、log.dirs :9092,192.168.1.62:9092,192.168.1.63:9092compression.type=none服务配置认证# 服务端配置登录认证cat <<EOF | tee /app/kafka-cluster ";};EOF客户配置认证# 客户端配置登录认证cat <<EOF | tee /app/kafka-cluster/kafka/config/kafka_client_jaas.confKafkaClient ";};EOF配置启动认证# 修改kafka-server-start.sh脚本,新增 -Djava.security.auth.login.config=/app/kafka-cluster/kafka /kafka/bin/kafka-server-start.sh /app/kafka-cluster/kafka/config/server.propertiesExecStop=/app/kafka-cluster
使用这些命令行工具,需要使用–zookeeper参数,如:zoo1.example.com:2181/kafka-cluster。 样例如下: # kafka-topics.sh --zookeeper zoo1.example.com:2181/kafka-cluster --list my-topic - marked for 样例如下: # kafka-topics.sh --zookeeper zoo1.example.com:2181/kafka-cluster --describe Topic:other-topic 在下面的示例中,假设zookeeper的连接字符串为zoo1.example.com:2181/kafka-cluster。 从上面的例子来看,这可能是–zookeeper zoo1.example.com:2181/kafka-cluster。
多节点kafka-cluster的安装、配置非常简单,所以应该不用太多篇幅就可以完成一个完整可用的kafka-cluster环境了: 1、安装Kafka之前需要安装zookeeper。 mongodb-services: 数据库服务平台 3、mongo-cluster: 数据库集群节点连接 4、kafka-services: 消息发布平台 5、kafka-backend: 消息消费及数据处理平台 6、kafka-cluster
2021-11-04 19:49:17,535 - [INFO] k.m.a.KafkaManagerActor - Adding new cluster manager for cluster : kafka-cluster [INFO] k.m.a.c.BrokerViewCacheActor - Started actor akka://kafka-manager-system/user/kafka-manager/kafka-cluster - [INFO] k.m.a.c.ClusterManagerActor - Started actor akka://kafka-manager-system/user/kafka-manager/kafka-cluster KafkaAdminClientActorConfig(ClusterContext(ClusterFeatures(Set(KMDeleteTopicFeature)),ClusterConfig(kafka-cluster ,PLAINTEXT,None,None)),LongRunningPoolConfig(2,1000),akka://kafka-manager-system/user/kafka-manager/kafka-cluster
通过上一篇文章Kafka:MirrorMaker-V1我们已经知道了MirrorMaker-V1的基本概念,这篇文章我们来给Kafka-cluster搭建一个mirror。 apache-zookeeper-3.6.1 kafka: kafka_2.11-2.4.1 kafka集群架构 Mirror创建步骤 MirrorMaker-V1是一个独立的工具,可以在任何能访问到两个Kafka-cluster
prometheus的配置文件如下,启动之后即可看到kafka的指标: global: scrape_interval: 15s scrape_configs: - job_name: "kafka-cluster global: scrape_interval: 15s scrape_configs: - job_name: "kafka-cluster" static_configs:
/kafka-cluster/kafka1/bin/kafka-server-start.sh -daemon . /kafka-cluster/kafka1/config/server.properties . /kafka-cluster/kafka2/bin/kafka-server-start.sh -daemon . /kafka-cluster/kafka2/config/server.properties . /kafka-cluster/kafka3/bin/kafka-server-start.sh -daemon .
--restart always \ jenkins/jenkins:ltschmod 755 /work/jenkins/bin/start.sh3.6、启动应用/work/kafka-cluster
二、Kafka 的安装 同样 pull 镜像先
docker pull jeygeethan/kafka-cluster同样三个节点上分别启动,注意,我这里kafka 2181 -e KAFKA_ID=0 ***{0/1/2: 三个节点分别设置,从0开始} *** -v ~/dockerdata/kafka/logs:/tmp/kafka-logs jeygeethan/kafka-cluster
callback-handler:latestenv:-name:REDIS_HOSTvalue:"redis-cluster"-name:KAFKA_BOOTSTRAP_SERVERSvalue:"kafka-cluster
配置文件操作工具来灵活调整配置 2、de/serializer序列化工具:alpakka-kafka提供了String类型的序列化/反序列化函数,可以直接使用 4、bootstrap-server:一个以逗号分隔的kafka-cluster
、在开始前我们先创建两个topic:topic1、topic2,其分区和副本数都设置为2,用来测试, [root@iZ2zegzlkedbo3e64vkbefZ ~]# cd /usr/local/kafka-cluster
它只有一个值,kafka-cluster,因为一个Kafka集群不能拥有多个集群资源。 2.Topic,它控制谁可以执行Topic级别的操作,比如生产和消费Topic。
的连接器配置,实现高效数据摄入: Properties properties = new Properties(); properties.setProperty("bootstrap.servers", "kafka-cluster
--- apiVersion: v1 kind: ConfigMap metadata: name: app-config data: kafka.bootstrap.servers: "kafka-cluster
allowNonRestoredState \ /path/to/risk-job.jar \ --kafka-topic transactions \ --bootstrap-servers kafka-cluster
例如:列出集群中未复制的分区: # kafka-topics.sh --zookeeper zoo1.example.com:2181/kafka-cluster --describe --under-replicated