你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
搜索结果正在快递途中
分词后太细查询性能下降
Elasticsearch
| 作者
ridethewind
| 发布于2019年03月13日 | 阅读数:
1967
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
使用ngram二元分词来分中文、英文、数字
即假设有一串数字为123456,分词为
1 12 2 23 3 34 4 45 5 56 6
分词后 ,使用,match_phrase查询长度为30的一串数字,效率极低。
各位大佬有没有什么优化建议?
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
rochy
-
rochy_he
赞同来自:
还是根据具体业务需求来优化吧
例如更换为 ik 分词器等
要回复问题请先
登录
或
注册
发起人
ridethewind
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
Jun
28
第26届 GOPS 全球运维大会暨研运数智化技术峰会 · 北京站
北京
·
6-28 周六
·
报名中
相关问题
elasticsearch scroll查询的原理没太懂
bulk update 重复的文档id 导致更新性能下降?
除了设置mapping为not analyzied,还有其他方法让一个string字段不分词吗?
Elastic对类似枚举数据的搜索性能优化
query_string查询疑问
请问查询人与人之间合作度,这种聚合查询怎么写呢?
聚合查询如何优化
Elasticsearch查询时指定分词器
es scroll查询全部数据问题
ik分词情况下“中国人民银行”为例,无法命中结果?
添加了ik自定义分词,之前入库的数据不能搜索出来,这个有什么好的解决方法?
问题状态
最新活动:
2019-03-14 01:16
浏览:
1967
关注:
2
人
1 个回复
rochy - rochy_he
赞同来自:
例如更换为 ik 分词器等