你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
好的想法是十分钱一打,真正无价的是能够实现这些想法的人。
能不能再聚合时设置分词数量的大小
Elasticsearch
| 作者
qqq1234567
| 发布于2018年11月12日 | 阅读数:
1391
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
例如:今天是星期天
分为今天,星期天
但是只取词数大于2的
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
zz_hello
赞同来自:
聚合的时候可以进行过滤的,filter桶里面再写聚合。或者也可以直接在query里面可以写条件
要回复问题请先
登录
或
注册
发起人
qqq1234567
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
相关问题
怎么解决elasticsearch集群占用太多虚拟内存(VIRT)的问题?占用了几十个G,有什么可以对它进行限制的相关设置吗?
elasticsearch 设置 node.data: false 依然有数据
除了设置mapping为not analyzied,还有其他方法让一个string字段不分词吗?
Elasticsearch查询时指定分词器
如何设置分配给elasticsearch的内存大小?
ik分词情况下“中国人民银行”为例,无法命中结果?
添加了ik自定义分词,之前入库的数据不能搜索出来,这个有什么好的解决方法?
ES配置IK分词器失败
Elasticsearch中文分词器问题
Elasticsearch 分词搜索 - 精确查找
Kibana中如何查询展现非重复信息的数量???例如访问日志的IP地址数量
问题状态
最新活动:
2018-11-12 17:07
浏览:
1391
关注:
2
人
1 个回复
zz_hello
赞同来自: