目前 21台机器 ,3个主节点 18台数据节点, 32c 128g 3T SSD ,jvm 31G 18个分片 1个副本 保留7天数据,大概40T 700亿左右的数据,之前数据量较少,没出现频繁重启,现在数据量大了,频繁重启。
索引按照四小时切割,每天生成 6个索引 ,一个索引大数据量大概500g-1T之间
有3个业务,一天总共 生成18个索引
,保留七天大概 190个索引,5000多个分片
写入量较大,分片数需要调整吗?
索引按照四小时切割,每天生成 6个索引 ,一个索引大数据量大概500g-1T之间
有3个业务,一天总共 生成18个索引
,保留七天大概 190个索引,5000多个分片
写入量较大,分片数需要调整吗?
8 个回复
lm324114
赞同来自: medcl
关闭 系统的oom killer 或者 把 es进程的 oom_score_adj 调整为 -1000 或者升级linux版本
lm324114
赞同来自:
lm324114
赞同来自:
lm324114
赞同来自:
Ombres
赞同来自:
zmc - ES PAAS、JuiceFS
赞同来自:
medcl - 今晚打老虎。
赞同来自:
yj7778826 - 苦逼小运维
赞同来自: