搜索结果正在快递途中

如何应对频繁更新的文档

Elasticsearch | 作者 dotNetDR_ | 发布于2018年11月01日 | 阅读数:4859

Q1: 项目中有个索引会因文档被客户端频繁更新,导致Segment一直增加,es在应对频繁更新的文档有什么应对办法?每隔几天做一次
forcemerge?
 
Q2: 当前的业务逻辑是不管是修改1个文档或者修改1000个文档都是使用bulk,是不是可以把单个文档的修改、删除和新增抽出来用
_update做合适些?
 
 
已邀请:

dotNetDR_ - elasticsearch 6.x

赞同来自:

现在能想到的优化点是,把客户端修改的文档放到某个地方,当累计到一定数量或者每隔一个固定的时间周期就交给消费者使用bulk方式处理掉。

laoyang360 - 《一本书讲透Elasticsearch》作者,Elastic认证工程师 [死磕Elasitcsearch]知识星球地址:http://t.cn/RmwM3N9;微信公众号:铭毅天下; 博客:https://elastic.blog.csdn.net

赞同来自:

累计到一定量再bulk 因为:累计到周期数据量不一定达标

dotNetDR_ - elasticsearch 6.x

赞同来自:

现在所有数据都可能是活数据,数据是否变化是由客户端决定的,所以也无法按照年月方式组件分片。挺头疼

要回复问题请先登录注册