huzhoahui168

huzhoahui168

威望 : 0 积分 : 1990 赞同 : 0 感谢 : 1

更多 »回复

0

我测试的结果是一批数据5000更新需要30-40S(文档id有重复),如果是没有重复文档id 更新5000数据只要6-8S

0

目前我想到的就是把这5000条数据去重,{id:1,name:ccc} {id:2,name:ccc}(通过更新时间保留时间最大的name ccc),当然这按自己条件是可以过滤掉的,不知道ES还有没其它的方法。

更多 »发问

10

2124 次浏览  • 11 个关注   • 2017-09-11

发问

回复

文章

最新动态

详细资料

个人成就:

威望: 0 积分: 1990 赞同: 0 感谢: 1

最后活跃:
2017-09-12 17:35
更多 » 关注 0
更多 » 1 人关注

mcs41531

主页访问量 : 1706 次访问