环境:
系统是centos6.4
logstash 、elastic 版本是6.7.0
采用源码安装
现象: 通过logstash 持续向elasticsearch 发数据,测压,数据发送完毕以后,free -m 查看内存情况,发现cache 部分在数据写入时持续增加,计时数据停止一段时间也没有被回收,请问这是什么原因引起的? 使用默认索引限制 10%;
elasticsearch 和 logstash 的 jvm.options 相同
-Xms4g
-Xmx4g
cache 增量大约是每增加 1千万数据,cache增加1.5G
系统是centos6.4
logstash 、elastic 版本是6.7.0
采用源码安装
现象: 通过logstash 持续向elasticsearch 发数据,测压,数据发送完毕以后,free -m 查看内存情况,发现cache 部分在数据写入时持续增加,计时数据停止一段时间也没有被回收,请问这是什么原因引起的? 使用默认索引限制 10%;
elasticsearch 和 logstash 的 jvm.options 相同
-Xms4g
-Xmx4g
cache 增量大约是每增加 1千万数据,cache增加1.5G
[root@localhost ~]# free -m
total used free shared buffers cached
Mem: 32000 10252 21747 0 106 4448
-/+ buffers/cache: 5697 26302
Swap: 0 0 0
3 个回复
juin - 大数据开发
赞同来自:
laoyang360 - 《一本书讲透Elasticsearch》作者,Elastic认证工程师 [死磕Elasitcsearch]知识星球地址:http://t.cn/RmwM3N9;微信公众号:铭毅天下; 博客:https://elastic.blog.csdn.net
赞同来自:
GET /_stats
步骤2: 查看luncene分段信息
GET /test/_segments
步骤3:清理缓存(requst/query/fielddata缓存)
POST /test/_cache/clear
步骤4:适当时机分段合并。
POST /test/_forcemerge
zqc0512 - andy zhou
赞同来自: