你不会是程序猿吧?

分词搜索大字段比较慢,是否能优化

Elasticsearch | 作者 we11 | 发布于2019年10月08日 | 阅读数:2614

ES版本如下图:
微信截图_20191008103051.png

 
content字段mapping:
微信截图_20191008103533.png

 
 
其中索引的content字段设置为text类型, 分词模式为 : ik_smart 。
content 字段主要存放了文章的内容,包含html标签,字段比较大。
 
使用Java Api 调用查询, 发现每个查询平均需要500ms , 最慢达到 1100ms, 索引数据只有 6w 多。
 
各位大佬是否能给一点优化的建议?
 
已邀请:

God_lockin

赞同来自:

有示例数据吗?我们的使用方式是分层存储,比如网站、标题、关键字、去掉所有标签的网页文本…分别存,然后再根据不同的需要组合不同的DSL

we11

赞同来自:

实例数据
 

doom

赞同来自:

数据量也不算大,字段这样设置,试一试,用term查询
 
    "properties": {
"text":{
"type": "text",
"index": true,
"analyzer": "ik_max_word",
"search_analyzer": "ik_smart"
}
}

要回复问题请先登录注册