跪求大神们帮忙看看这种情况下ik分词生效了吗?万分感谢

Elasticsearch | 作者 xiaoxin181 | 发布于2020年03月25日 | 阅读数:204

我先设置好mapping加入分词上传了一个json文件(是一些文本,两个索引是textid和text),最后mappings如图,这样json文件用上ik分词了吗,,,但感觉不对,
比如我搜索“云南省重点支持哪些企业尽快恢复生产?”最后搜出score最高的结果是一个海南省为主体的文本,如果分词的话应该直接用云南省搜吧,,,,,这种情况应该怎么办》。。求解答,谢谢!!!
15.png
已邀请:

xiaoxin181

赞同来自:

顶顶...
 

doom

赞同来自:

"content":{
"analyzer": "ik_max_word",
"search_analyzer": "ik_smart",
"type":"text"
}
这种分词试一下,搜素用 ik_smart,最大粒度的分词,也就是“云南省重点支持哪些企业尽快恢复生产?”
GET  _analyze
{
  "text": ["云南省重点支持哪些企业尽快恢复生产?"], 
  "analyzer": "ik_smart"
}
{
  "tokens": [
    {
      "token": "云南省",
      "start_offset": 0,
      "end_offset": 3,
      "type": "CN_WORD",
      "position": 0
    },
    {
      "token": "重点",
      "start_offset": 3,
      "end_offset": 5,
      "type": "CN_WORD",
      "position": 1
    },
    {
      "token": "支持",
      "start_offset": 5,
      "end_offset": 7,
      "type": "CN_WORD",
      "position": 2
    },
    {
      "token": "哪些",
      "start_offset": 7,
      "end_offset": 9,
      "type": "CN_WORD",
      "position": 3
    },
    {
      "token": "企业",
      "start_offset": 9,
      "end_offset": 11,
      "type": "CN_WORD",
      "position": 4
    },
    {
      "token": "尽快",
      "start_offset": 11,
      "end_offset": 13,
      "type": "CN_WORD",
      "position": 5
    },
    {
      "token": "恢复生产",
      "start_offset": 13,
      "end_offset": 17,
      "type": "CN_WORD",
      "position": 6
    }
  ]
}
.要是用ik_max_word,索引,会有很多组合,分的很细,不适合搜索的。

cc112_112

赞同来自:

路过

要回复问题请先登录注册