转自https://www.kancloud.cn/luke8327/phpwolf/2655264
本解决方案的前提是在docker环境下
错误详情:
[type=circuit_breaking_exception, reason=[parent] Data too large, data for [<http_request>] would be [125643918/119.8mb], which is larger than the limit of [90832896/86.6mb], real usage: [125639936/119.8mb], new bytes reserved: [3982/3.8kb], usages [request=0/0b, fielddata=0/0b, in_flight_requests=3982/3.8kb, accounting=15713/15.3kb]] ElasticsearchStatusException[Elasticsearch exception [type=circuit_breaking_exception, reason=[parent] Data too large, data for [<http_request>] would be [125643918/119.8mb],
在这里找到了3个数值
Data too large, data for [] would be [125643918/119.8mb] 这个就是上限内存(缺省是它是ES最大内存的95%)
real usage: [125639936/119.8mb], ES已经使用的内存
new bytes reserved: [3982/3.8kb] 本次查询需要的内存
自己也百度了一些解答,如下:
1。增加ES的JVM内存大小,文件在 /config/jvm.options
把这两个值改大一点
-Xms1g
-Xmx1g
改了之后使用docker restart elasticsearch 重启,还是不行,并且报的数值都差不多,说明内存根本没有生效
2。修改缓冲区
PUT /_cluster/settings
{
"persistent": {
"indices.breaker.fielddata.limit": "60%"
}
}
PUT /_cluster/settings
{
"persistent": {
"indices.breaker.request.limit": "40%"
}
}
PUT /_cluster/settings
{
"persistent": {
"indices.breaker.total.limit": "70%"
}
}
也没用
解决办法
思路1,我想了一下会不会是docker限制了容器的内存大小,查阅资料后发现docker默认不限制容器内存大小的。
思路2,我百度了docker查看启动容器的命令的指令ps -fe
,发现启动ES的命令行中发现了 -Xms64m -Xmx128m ,然后结合内存不够的数值,也差不多能对上,那肯定就是docker启动命令的问题了,虽然你修改了ES在JVM文件中的内存大小,但是可能
docker restart 重启的时候还是用的docker run的指令,所以导致设置的内存大小没有应用成功。
解决:
docker stop 容器 停止容器
docker rm 容器 删除容器
最后在命令行重新指定内存大小
docker run --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms3g -Xmx3g" -v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /mydata/elasticsearch/data:/usr/share/elasticsearch/data -v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins -d elasticsearch:7.4.2