橡皮、老虎皮、狮子皮哪一个最不好?

segment太多,搜索效率太低,如何调整

匿名 | 发布于2021年01月20日 | 阅读数:2010

"max_merge_at_once": "20",
"max_merged_segment": "20gb",
"segments_per_tier": "25",
"floor_segment": "20mb"
上面是我们ES集群段合并的配置,开始使用默认配置大概有不到2000段文件,现在修改成上面的配置以后反而段文件更多,有2700左右,不明白按照这个配置不应该是段文件合并范围更大吗,为什么现在段文件更多了呢,顺便请教各位大神,段文件数在什么范围之内是一个正常的标准~~~

 
已邀请:

ouyangchucai - Elasticsearch中文社区钉钉群号 : 21737292

赞同来自:

业务低峰期可以考虑合并segment文件,只读的索引可以从合并成一个单独的大segment中收益,减少索引分段segment,减少JVM堆常驻内存。强制合并索引操作会耗费大量磁盘IO,尽量配置在业务低峰期(例如凌晨)执行。

索引优化API示例:
POST /index/_forcemerge?max_num_segments=1

zhangrui90 - z

赞同来自:

ssd ,延迟刷新极大缓解吧,如果你现在用的是机械盘

要回复问题请先登录注册