悟空,拿我的打狗棒来

求助ES7.5.2 data too large以及heap使用率高

Elasticsearch | 作者 CiCi | 发布于2021年08月09日 | 阅读数:2134

新手求助,测试环境三节点ES集群,内存分配2G,没有其他业务,只有Kibana监控。
 
想请问下这个GC是不是不大对?QueryCache、Fielddata等等并没有占用多少内存,怎么heap直接就占50%了......大量写入时报data too large的错,heap占80%+......
 
是不是应该把内存改大些,还有其他问题么,是什么占用了那950MB的内存呢?感觉那950MB还无法释放,我是不是也要dump分析一下T T

1.PNG


2.PNG

 
已邀请:

Ombres

赞同来自:

内存占用应该是正常的。另外数据发到es也需要内存才能写入到文件中,充当协调节点的内存相比只存数据的节点内存可能压力要更大一些,协调节点的熔断几率可能更高。
大量写入的并发是大概是什么量级呢?可以换算内存对比一下。我的建议是如果实际有这么大的并发,还是调大堆内存吧。

tongchuan1992 - 学无止境、学以致用

赞同来自:

可以查下segment memory,以及看下查询、写入相关的熔断是如何配置的, 2G内存确实比较少,不想查看原因,加内存可以直接解决你的问题。

要回复问题请先登录注册