/zkcli.sh -zkhost solr-1:2181,solr-2:2181,solr-3:2181 -cmd upconfig -confdir /home/solr-home/new_core ,关联solr和zookeeper 三台都需要修改 > vim /usr/local/tomcat/bin/catalina.sh JAVA_OPTS="-DzkHost=solr-1:2181,solr /zkcli.sh -zkhost solr-1:2181,solr-2:2181,solr-3:2181 -cmd upconfig -confdir /home/solr-home/new_core 分词配置和依赖jar包同理 ---- 五、集群机制测试 测试容错 关闭主节点solr-1 在数据查询上 另外两个节点依然可以提供数据查询服务 重启 solr-1,再次查看界面可以发现主节点已经路由给了solr q=appName%3Agongju" solr-1 solr-2 -3 承载了接口请求的节点压力会比较大,其余在集群情况下提供了支持
/1 Running 0 120m solr-1 1/1 Running 0 113m solr -2 0/1 Init:0/2 0 1s 等待片刻后,请注意丢失的solr-2 pod已重新添加到集群中。 如果您重新运行get nodes,您将看到solr-2 pod已经在之前相同的nodes上重新创建。 这是因为k8s在努力维持平衡集群。 从solr-2开始,k8s进行从Solr 7.5.0容器到7.6.0容器的滚动升级。 solr-2初始化之后,查看一下日志,您会看到它现在正在运行Solr 7.6.0: 一切都很好,只是它没有考虑到要升级的节点上所有leader的重新选举。