你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
无论才能、知识多么卓著,如果缺乏热情,则无异纸上画饼充饥,无补于事。
index的segments数量超过多少进行合并比较合理呀
Elasticsearch
| 作者
redhat
| 发布于2018年08月15日 | 阅读数:
1230
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
使用cat命名,我发现我的很多index的segments数量都在1000以上,请问这个合理吗 需要进行人工进行合并吗?另外想知道segments数量超过多少 需要进行人工介入合并?谢谢
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
JackGe
赞同来自:
索引segment数量太大,每个segment上会有相同的term dictionary导致内存占用量较大,并且查询时需要读取多个segment造成整体查询耗时较高。需要在平峰期进行segment合并,可以采用POST {indexName}/_optimize?max_num_segments=1 或者POST {indexName}/_forcemerge?max_num_segments=1 人工进行合并。
segment数量多少是合理还和索引大小和shard个数有关。
要回复问题请先
登录
或
注册
发起人
redhat
相关问题
怎么解决elasticsearch集群占用太多虚拟内存(VIRT)的问题?占用了几十个G,有什么可以对它进行限制的相关设置吗?
ES集群如何进行挨个重启?
ES集群,进行大量删除操作时候,bulk队列溢出
Elasticsearch内存配置成系统内存的50%是否合理?
虚心求教,elastisearch 该怎么进行深入学习以及调优
elasticsearch内部会对dsl进行优化吗
Kibana中如何查询展现非重复信息的数量???例如访问日志的IP地址数量
elasticsearch中match无法进行匹配查询(匹配查询match查不结果)
我要对两个字段进行计算,然后对计算出来对新字段进行聚合
Filebeat6.0.x 版本多个index配置
es term 聚合时能按_score进行排序么
问题状态
最新活动:
2018-08-15 21:28
浏览:
1230
关注:
3
人
1 个回复
JackGe
赞同来自:
segment数量多少是合理还和索引大小和shard个数有关。