沙师弟,师父的充电器掉了

求教关于集群规划

Elasticsearch | 作者 yeziblo | 发布于2019年09月27日 | 阅读数:1135

如题,我知道一个分片的大小最好不要超过50G(在30G左右是个不错的选择),我也知道ES的堆内存最好不要超过32G(26G是个不错的选择)。

那么问题来了……我想知道一个堆内存为31G的ES,它理论是可以处理多少T的数据呢?

我知道了设置堆的大小,我也知道了根据日期切分索引,来尽量维持索引中的分片不要太多切单个分片不超过50G。

但是我不知道多少数据需要多少个节点啊……

比如我预计会有10T的数据,我的每个ES节点假设都是64G内存,那么我需要多少个节点,才能使得我比较平稳的处理这10T的数据呢?

预祝大家国庆愉快~
已邀请:

doom

赞同来自:

 推荐一篇博文:https://blog.csdn.net/xuguokun ... 61796
您可以在集群节点上保存的分片数量与您可用的堆内存大小成正比,但这在Elasticsearch中没有的固定限制。 一个很好的经验法则是:确保每个节点的分片数量保持在低于每1GB堆内存对应集群的分片在20-25之间。 因此,具有30GB堆内存的节点最多可以有600-750个分片,但是进一步低于此限制,您可以保持更好。 这通常会帮助群体保持处于健康状态。单个分片的大小在10GB~30GB之间比较合适,同时注意单分片的记录条数不要超过上限2,147,483,519;30G内存,最大750*30GB=22T;推荐最大18T数据;

要回复问题请先登录注册