我已经在elasticsearch上上传了大约1TB的数据。因为我尝试了以下方法-
-
{
"error": {
"root_cause": [
{
"type": "circuit_breaking_exception",
"reason": "[fielddata] Data too large, data for [_uid] would be [13960098635/13gb], which is larger than the limit of [12027297792/11.2gb]",
"bytes_wanted": 13960098635,
"bytes_limit": 12027297792
}
}
},如何解决此错误,以及通过分页搜索大量数据的最有效方法是什么?
发布于 2017-10-04 08:49:04
你撞到断路器了,因为现场数据很大。它比堆中分配的部分大。
请参阅此处的Elasticsearch文档:usage.html#circuit-breaker
根据您的搜索需求,您可以考虑增加堆大小,您可以更改断路器限制,以便在您的场景中不会触发。最好的解决方法可能是限制现场数据缓存的大小。
通过将此设置添加到config/elasticsearch.yml文件中,可以对字段数据设置上限(相对或绝对):
indices.fielddata.cache.size: 20% 有关详细信息,请参阅:usage.html#fielddata-size
现在的答案是:FIELDDATA Data is too large
https://stackoverflow.com/questions/44760471
复制相似问题