嘿~ 今天天气不错嘛

关于es-hadoop 添加ik中文分词的问题

Elasticsearch | 作者 forresttee | 发布于2017年11月15日 | 阅读数:2732

各位大佬,在下刚学会怎么初步使用esearch,现在需要解决这样一个问题,请各位多多指教。
 
       希望将hdfs上的数据在安装elasticsearch集群上生成索引(hadoop集群和elasticsearch集群分开安装的)。并将中文字段进行ik分词。
       之前实现过使用多线程elasticsearch API创建索引,并在创建索引的时候使用ik分词,只要配置个field("analyzer","ik_max_word")就可以了。请问怎么将elasticsearch API接入hadoop集群使用?
       
       尝试使用es-hadoop过,可是没有跟ik分词结合的配置项,有人实现过在使用es-hadoop的时候添加ik中文分词的功能吗?
已邀请:

medcl - 今晚打老虎。

赞同来自: forresttee

es-hadoop 只是负责数据的读写打通,analyzer 是在 mapping 里面做的,可以先建好索引,设置好 mapping 为 ik,然后再使用 es-Hadoop 进行数据读写,应该就可以的。

forresttee

赞同来自:

多谢!感觉应该可行,试试看

要回复问题请先登录注册