你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
不要急,总有办法的
Es批量写入和正则查询问题
Elasticsearch
| 作者
love1314sea
| 发布于2017年07月15日 | 阅读数:
4725
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
1 Es使用批量写入时,可能会发生部分数据写入成功,部分数据写入失败。有什么方法保证数据不丢失?
2 数据中有一列字段很长,需要使用正则匹配,导致查询效率大幅降低,有什么好的办法吗?
谢谢。
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
laududu
赞同来自:
1.你先处理下数据,可能有非法字符,或者你把每个失败ID拿到,然后找原因;
2.数据字段很长,为什么用正则?这是什么业务场景?
要回复问题请先
登录
或
注册
发起人
love1314sea
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
Nov
30
【活动报名】ClickHouse Beijing User Group 第2届 Meetup
北京
·
11-30 周六
·
报名中
相关问题
elasticsearch scroll查询的原理没太懂
这个问题有点难?
怎么解决elasticsearch集群占用太多虚拟内存(VIRT)的问题?占用了几十个G,有什么可以对它进行限制的相关设置吗?
集群稳定性的一些问题(一定量数据后集群变得迟钝)
elasticsearch functionScoreQuery scriptFunction效率问题
query_string查询疑问
请问查询人与人之间合作度,这种聚合查询怎么写呢?
Elasticsearch查询时指定分词器
索引某个shard无法恢复的问题
聚合查询如何优化
logstash获取时间的问题
问题状态
最新活动:
2017-07-17 09:43
浏览:
4725
关注:
3
人
1 个回复
laududu
赞同来自:
2.数据字段很长,为什么用正则?这是什么业务场景?