怎么又是你

bulk写入数据时,READ非常高

Elasticsearch | 作者 ridethewind | 发布于2018年12月08日 | 阅读数:2590

在bulk写入的时候,用iotop命令发现很多线程的READ高达30M左右,WRITE只有几K,这个可能是什么原因导致的啊?
已邀请:

medcl - 今晚打老虎。

赞同来自:

你看看hotthreads是不是在做merge操作

Judge

赞同来自:

无论是index或者是update,只要指定了doc id,lucene都需要进行get操作,当你索引数据量很大时,会有频繁且大量segment中的数据加载到内存,这是read io高的一个大原因,另外通常merge 只要线程数限小,不会有非常高的read io,我之前也碰到过这个问题,自己探索了下

要回复问题请先登录注册