FIELDDATA数据太大
我打开kibana并进行搜索,但出现碎片失败的错误。我查看了elasticsearch.log文件,然后看到此错误:
org.elasticsearch.common.breaker.CircuitBreakingException: [FIELDDATA] Data too large, data for [@timestamp] would be larger than limit of [622775500/593.9mb]
有什么办法可以增加593.9mb的限制?
回答:
您可以尝试在配置文件中将fielddata断路器的限制提高到75%(默认值为60%),elasticsearch.yml
然后重新启动集群:
indices.breaker.fielddata.limit: 75%
或者,如果您不想重启群集,则可以使用以下方法动态更改设置:
curl -XPUT localhost:9200/_cluster/settings -d '{ "persistent" : {
"indices.breaker.fielddata.limit" : "40%"
}
}'
试试看。
以上是 FIELDDATA数据太大 的全部内容, 来源链接: utcz.com/qa/397845.html