你可以的,加油

求教nGram分词问题

匿名 | 发布于2019年12月18日 | 阅读数:291

在测试中:
{
  "text": "ABCD",
  "tokenizer": {
    "type": "nGram",
    "min_gram": 1,
    "max_gram": 2
  }
}
ABCD分词正常,有B、BC等分词
但是实际在映射中使用时:
{
  "test": {
    "properties": {
      "name": {
        "type": "text",
        "tokenizer": {
          "type": "nGram",
          "min_gram": 1,
          "max_gram": 10
        }
      }
    }
  }
}
查询
{
  "query":{
    "match_phrase": {
      "name": "B"
    }
  }
}
返回无结果,请问下为什么在映射中英文不分词了呢?
已邀请:
匿名用户

匿名用户

赞同来自: su_san

你这是什么写法? 一看就不对,这语法。
 
你根本没放到分析器里面
 
PUT my_index
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer": {
"tokenizer": "my_tokenizer"
}
},
"tokenizer": {
"my_tokenizer": {
"type": "ngram",
"min_gram": 3,
"max_gram": 3,
"token_chars": [
"letter",
"digit"
]
}
}
}
}
}

POST my_index/_analyze
{
"analyzer": "my_analyzer",
"text": "2 Quick Foxes."
}

要回复问题请先登录注册