首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Elasticsearch -在重新打开索引INDEX_REOPENED错误后未分配副本

Elasticsearch -在重新打开索引INDEX_REOPENED错误后未分配副本
EN

Stack Overflow用户
提问于 2018-03-29 15:42:16
回答 1查看 2.4K关注 0票数 3

我关闭了我的索引并重新打开它,现在我的碎片无法分配。

代码语言:javascript
复制
curl -s -XGET localhost:9201/_cat/shards?h=index,shard,prirep,state,unassigned.reason | grep UNASSIGNED
2018.03.27-team-logs 2 r UNASSIGNED INDEX_REOPENED
2018.03.27-team-logs 5 r UNASSIGNED INDEX_REOPENED
2018.03.27-team-logs 3 r UNASSIGNED INDEX_REOPENED
2018.03.27-team-logs 4 r UNASSIGNED INDEX_REOPENED
2018.03.27-team-logs 1 r UNASSIGNED INDEX_REOPENED
2018.03.27-team-logs 0 r UNASSIGNED INDEX_REOPENED
2018.03.28-team-logs 2 r UNASSIGNED INDEX_REOPENED
2018.03.28-team-logs 5 r UNASSIGNED INDEX_REOPENED
2018.03.28-team-logs 3 r UNASSIGNED INDEX_REOPENED
2018.03.28-team-logs 4 r UNASSIGNED INDEX_REOPENED
2018.03.28-team-logs 1 r UNASSIGNED INDEX_REOPENED
2018.03.28-team-logs 0 r UNASSIGNED INDEX_REOPENED

有人能解释一下错误意味着什么以及如何解决吗?在我关闭之前一切都很好。我配置了6个碎片和1个副本。已安装Elasticsearch 6.2。

编辑:

curl -XGET "localhost:9201/_cat/shards"输出

代码语言:javascript
复制
2018.03.29-team-logs 1 r STARTED    1739969 206.2mb 10.207.46.247 elk-es-data-hot-1.platform.osdc2.mall.local
2018.03.29-team-logs 1 p STARTED    1739969   173mb 10.206.46.246 elk-es-data-hot-2.platform.osdc1.mall.local
2018.03.29-team-logs 2 p STARTED    1739414 169.9mb 10.207.46.247 elk-es-data-hot-1.platform.osdc2.mall.local
2018.03.29-team-logs 2 r STARTED    1739414 176.3mb 10.207.46.248 elk-es-data-hot-2.platform.osdc2.mall.local
2018.03.29-team-logs 4 p STARTED    1740185   186mb 10.206.46.247 elk-es-data-hot-1.platform.osdc1.mall.local
2018.03.29-team-logs 4 r STARTED    1740185 169.4mb 10.206.46.246 elk-es-data-hot-2.platform.osdc1.mall.local
2018.03.29-team-logs 5 r STARTED    1739660 164.3mb 10.207.46.248 elk-es-data-hot-2.platform.osdc2.mall.local
2018.03.29-team-logs 5 p STARTED    1739660 180.1mb 10.206.46.246 elk-es-data-hot-2.platform.osdc1.mall.local
2018.03.29-team-logs 3 p STARTED    1740606 171.2mb 10.207.46.248 elk-es-data-hot-2.platform.osdc2.mall.local
2018.03.29-team-logs 3 r STARTED    1740606 173.4mb 10.206.46.247 elk-es-data-hot-1.platform.osdc1.mall.local
2018.03.29-team-logs 0 r STARTED    1740166 169.7mb 10.207.46.247 elk-es-data-hot-1.platform.osdc2.mall.local
2018.03.29-team-logs 0 p STARTED    1740166   187mb 10.206.46.247 elk-es-data-hot-1.platform.osdc1.mall.local
2018.03.28-team-logs 1 p STARTED    2075020 194.2mb 10.207.46.248 elk-es-data-hot-2.platform.osdc2.mall.local
2018.03.28-team-logs 1 r UNASSIGNED                               
2018.03.28-team-logs 2 p STARTED    2076268 194.9mb 10.206.46.247 elk-es-data-hot-1.platform.osdc1.mall.local
2018.03.28-team-logs 2 r UNASSIGNED                               
2018.03.28-team-logs 4 p STARTED    2073906 194.9mb 10.207.46.247 elk-es-data-hot-1.platform.osdc2.mall.local
2018.03.28-team-logs 4 r UNASSIGNED                               
2018.03.28-team-logs 5 p STARTED    2072921   195mb 10.207.46.248 elk-es-data-hot-2.platform.osdc2.mall.local
2018.03.28-team-logs 5 r UNASSIGNED                               
2018.03.28-team-logs 3 p STARTED    2074579 194.1mb 10.206.46.246 elk-es-data-hot-2.platform.osdc1.mall.local
2018.03.28-team-logs 3 r UNASSIGNED                               
2018.03.28-team-logs 0 p STARTED    2073349 193.9mb 10.207.46.248 elk-es-data-hot-2.platform.osdc2.mall.local
2018.03.28-team-logs 0 r UNASSIGNED                               
2018.03.27-team-logs 1 p STARTED     356769  33.5mb 10.207.46.246 elk-es-data-warm-1.platform.osdc2.mall.local
2018.03.27-team-logs 1 r UNASSIGNED                               
2018.03.27-team-logs 2 p STARTED     356798  33.6mb 10.206.46.244 elk-es-data-warm-2.platform.osdc1.mall.local
2018.03.27-team-logs 2 r UNASSIGNED                               
2018.03.27-team-logs 4 p STARTED     356747  33.7mb 10.207.46.246 elk-es-data-warm-1.platform.osdc2.mall.local
2018.03.27-team-logs 4 r UNASSIGNED                               
2018.03.27-team-logs 5 p STARTED     357399  33.8mb 10.207.46.245 elk-es-data-warm-2.platform.osdc2.mall.local
2018.03.27-team-logs 5 r UNASSIGNED                               
2018.03.27-team-logs 3 p STARTED     357957  33.7mb 10.206.46.245 elk-es-data-warm-1.platform.osdc1.mall.local
2018.03.27-team-logs 3 r UNASSIGNED                               
2018.03.27-team-logs 0 p STARTED     356357  33.4mb 10.207.46.245 elk-es-data-warm-2.platform.osdc2.mall.local
2018.03.27-team-logs 0 r UNASSIGNED                               
.kibana                  0 p STARTED          2  12.3kb 10.207.46.247 elk-es-data-hot-1.platform.osdc2.mall.local
.kibana                  0 r UNASSIGNED

curl -XGET "localhost:9201/_cat/nodes"输出

代码语言:javascript
复制
10.207.46.248  8 82 0 0.07 0.08 0.11 d - elk-es-data-hot-2
10.206.46.245  9 64 0 0.04 0.11 0.08 d - elk-es-data-warm-1
10.207.46.249 11 90 0 0.00 0.01 0.05 m * elk-es-master-2
10.207.46.245  9 64 0 0.00 0.01 0.05 d - elk-es-data-warm-2
10.206.46.247 12 82 0 0.00 0.06 0.08 d - elk-es-data-hot-1
10.206.46.244 10 64 0 0.08 0.04 0.05 d - elk-es-data-warm-2
10.207.46.243  5 86 0 0.00 0.01 0.05 d - elk-kibana
10.206.46.248 10 92 1 0.04 0.18 0.24 m - elk-es-master-1
10.206.46.246  6 82 0 0.02 0.07 0.09 d - elk-es-data-hot-2
10.207.46.247  9 82 0 0.06 0.06 0.05 d - elk-es-data-hot-1
10.206.46.241  6 91 0 0.00 0.02 0.05 m - master-test
10.206.46.242  8 89 0 0.00 0.02 0.05 d - es-kibana
10.207.46.246  8 64 0 0.00 0.02 0.05 d - elk-es-data-warm-1
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-03-29 17:13:58

这是预期的行为。

Elasticsearch不会将主碎片和副本碎片放在同一个节点上。您至少需要两个节点才能有一个副本。

可以简单地将副本设置为0。

代码语言:javascript
复制
PUT */_settings
{
    "index" : {
    "number_of_replicas" : 0
    }
}

更新:

在运行以下请求之后

代码语言:javascript
复制
GET /_cluster/allocation/explain?pretty

我们可以在这里看到回应

https://pastebin.com/1ag1Z7jL

“说明”:“分配给具有属性数据中心的节点的碎片副本太多,此碎片id有2个配置的碎片副本,以及3个总属性值,预计每个属性2分配的碎片计数小于或等于每个属性1所需的碎片数的上限”

您可能已经使用了区域设置。Elasticsearch将避免将主碎片和副本碎片放在相同的区域https://www.elastic.co/guide/en/elasticsearch/reference/current/allocation-awareness.html

对于普通的感知,如果一个区域与另一个区域失去了联系,Elasticsearch将将所有丢失的副本碎片分配给单个区域。但是在这个例子中,这个突然的额外负载会导致剩余区域中的硬件被重载。 强制意识解决了这个问题,因为从来不允许将相同碎片的副本分配到相同的区域。 例如,假设我们有一个名为zone的感知属性,并且我们知道我们将有两个区域,zone1和zone2。下面是如何在节点上强制感知的方法: cluster.routing.allocation.awareness.force.zone.values: zone1,zone2 cluster.routing.allocation.awareness.attributes:专区

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/49560126

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档