我在版本5.6.12上运行2节点群集
我遵循了下面的滚动升级指南:https://www.elastic.co/guide/en/elasticsearch/reference/5.6/rolling-upgrades.html
在将最后升级的节点重新连接回我的集群后,由于未分配分片,健康状态仍然为黄色。
重新启用分片分配似乎没有任何效果:
PUT _cluster/settings
{
"transient": {
"cluster.routing.allocation.enable": "all"
}
}我检查集群健康时的查询结果:
GET _cat/health:
1541522454 16:40:54 elastic-upgrade-test yellow 2 2 84 84 0 0 84 0 - 50.0%
GET _cat/shards:
v2_session-prod-2018.11.05 3 p STARTED 6000 1016kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 3 r UNASSIGNED
v2_session-prod-2018.11.05 1 p STARTED 6000 963.3kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 1 r UNASSIGNED
v2_session-prod-2018.11.05 4 p STARTED 6000 1020.4kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 4 r UNASSIGNED
v2_session-prod-2018.11.05 2 p STARTED 6000 951.4kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 2 r UNASSIGNED
v2_session-prod-2018.11.05 0 p STARTED 6000 972.2kb xx.xxx.xx.xxx node-25
v2_session-prod-2018.11.05 0 r UNASSIGNED
v2_status-prod-2018.11.05 3 p STARTED 6000 910.2kb xx.xxx.xx.xxx node-25
v2_status-prod-2018.11.05 3 r UNASSIGNED 有没有其他方法可以尝试让分片分配重新工作,这样我就可以让集群的健康状况恢复为绿色?
发布于 2018-11-07 01:31:58
我的集群中的另一个节点有一条"high disk watermark 90% exceeded“警告消息,因此分片被”重新定位到远离这个节点“。
我将配置更新为:
cluster.routing.allocation.disk.watermark.high: 95%重启节点后,分片重新开始分配。
这是一个快速修复-我还将尝试增加此节点上的磁盘空间,以确保我不会失去可靠性。
https://stackoverflow.com/questions/53176302
复制相似问题