好的想法是十分钱一打,真正无价的是能够实现这些想法的人。

ngram分词器会占很多内存吗?

Elasticsearch | 作者 chengyang | 发布于2019年03月08日 | 阅读数:1226

ngram分词分的很细,会不会导致较多的内存占用?当数据量较大时,是否有瓶颈??
已邀请:

rochy - rochy_he

赞同来自:

ngram分词分的很细会产生较多的 term ,因此会比普通使用词典分词的占用更多的存储和内容;
数据量大的时候,可通过分索引和多分片来分散压力

要回复问题请先登录注册