FIELDDATA数据太大

我打开kibana并进行搜索,但出现碎片失败的错误。我查看了elasticsearch.log文件,然后看到此错误:

org.elasticsearch.common.breaker.CircuitBreakingException: [FIELDDATA] Data too large, data for [@timestamp] would be larger than limit of [622775500/593.9mb]

有什么办法可以增加593.9mb的限制?

回答:

您可以尝试在配置文件中将fielddata断路器的限制提高到75%(默认值为60%),elasticsearch.yml然后重新启动集群:

indices.breaker.fielddata.limit: 75%

或者,如果您不想重启群集,则可以使用以下方法动态更改设置:

curl -XPUT localhost:9200/_cluster/settings -d '{

"persistent" : {

"indices.breaker.fielddata.limit" : "40%"

}

}'

试试看。

以上是 FIELDDATA数据太大 的全部内容, 来源链接: utcz.com/qa/397845.html

回到顶部