沙师弟,师父的充电器掉了

elasticsearch中index有40多个,shard共有800个。用spark-es工具插入数据特别慢。

Elasticsearch | 作者 Vbeifeng | 发布于2018年04月11日 | 阅读数:2024

目前有8个节点的es集群。和其他服务公用资源。在使用spark插入数据的时候特慢。是因为shard太多这个原因吗
已邀请:

ESWorker

赞同来自:

能给出每个节点的配置情况么?如内存配置,磁盘类型,最好有个elasticsearch.yml配置文件的截图
个人认为,分片多对写入应该没什么大影响。首先在排除ES集群自身吞吐量,索引速度没问题的前提下,建议可以适当给插入数据的工程增加内存,提高(进入ES之前)插入数据的速度。
可以了解一下写入原理:Elasticsearch 写入流程简介
分片优化方面:ES节点及分片常见分配规则和ES优化方案
写入优化:将 ELASTICSEARCH 写入速度优化到极限

yayg2008

赞同来自:

先要确认哪里耗时,是ES服务本身,还是spark-es工具插入速度的限制?
如果ES服务本身已经被插的负载很高了,那再结合index进行写入优化即可。

要回复问题请先登录注册