重启ES后,每次最后的shard回复很慢

Elasticsearch | 作者 chengyang | 发布于2019年02月24日 | 阅读数:535

环境中有4w个shard,重启ES后,很快就进入yellow状态了,然后用不了多长时间也就回复了98%的分配,对于最后2%的分片总是非常慢,查看分配未分配的原因是正在初始化,这个有什么办法可以优化么?
已邀请:

rochy - rochy_he@tw

赞同来自:

很快就进入 yellow 状态了,说明集群的分片应该不是处于初始化的状态;
你可以在 head 的界面看正在分配的分片的详细信息;
定位到具体的分片再去做细致的研究;
有可能是这个分片数据量过大,也有可能是在做 rebalance 等

zqc0512 - andy zhou

赞同来自:

是黄到绿慢,这个是大数据量的问题的,还有就是恢复时间设置问题,这玩意要从一个节点传输到另一个节点,不直接本地恢复。比较占用资源。
 

weizijun - elasticsearch fan

赞同来自:

可能是有shard需要从主shard上拷贝数据恢复,可以通过GET _cat/recovery?v 看下是否有恢复任务,或者在kibana monitor上查看

kkgace

赞同来自:

最后小部分索引可能超过恢复次数或者其他原因处于初始化状态,增大这个索引的恢复次数应该就可以

要回复问题请先登录注册