你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
悟空,拿我的打狗棒来
ngram分词器会占很多内存吗?
Elasticsearch
| 作者
chengyang
| 发布于2019年03月08日 | 阅读数:
1413
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
ngram分词分的很细,会不会导致较多的内存占用?当数据量较大时,是否有瓶颈??
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
rochy
-
rochy_he
赞同来自:
ngram分词分的很细会产生较多的 term ,因此会比普通使用词典分词的占用更多的存储和内容;
数据量大的时候,可通过分索引和多分片来分散压力
要回复问题请先
登录
或
注册
发起人
chengyang
IT
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
Nov
30
【活动报名】ClickHouse Beijing User Group 第2届 Meetup
北京
·
11-30 周六
·
报名中
相关问题
怎么解决elasticsearch集群占用太多虚拟内存(VIRT)的问题?占用了几十个G,有什么可以对它进行限制的相关设置吗?
除了设置mapping为not analyzied,还有其他方法让一个string字段不分词吗?
如何设置分配给elasticsearch的内存大小?
Elasticsearch查询时指定分词器
添加了ik自定义分词,之前入库的数据不能搜索出来,这个有什么好的解决方法?
ik分词情况下“中国人民银行”为例,无法命中结果?
Elasticsearch内存配置成系统内存的50%是否合理?
Elasticsearch 分词搜索 - 精确查找
Elasticsearch中文分词器问题
ES配置IK分词器失败
es中有自动创建了很多索引,怎么禁止?安装了x-pack
问题状态
最新活动:
2019-03-08 01:05
浏览:
1413
关注:
2
人
1 个回复
rochy - rochy_he
赞同来自:
数据量大的时候,可通过分索引和多分片来分散压力