怎么又是你

ElasticSearch如何开发自己的Tokenzer 和TokenizerFilter

Elasticsearch | 作者 zhubo | 发布于2018年07月26日 | 阅读数:1784

哪位大神知道如何开发呀,有文档吗?
已邀请:

zqc0512 - andy zhou

赞同来自:

你有撒需求需要来改这玩意啊?
很麻烦的。

rochy - rochy_he

赞同来自:

这个 Github 有不少开源的分词工具,基本上可用满足你的要求,如果需要自己开发,你可用参考 Github 开源的分词工具的代码,也可用参考部分文章:
https://blog.csdn.net/l2532726 ... 41169
 
https://blog.csdn.net/makefrie ... 70564

novia - 1&0

赞同来自:

gihub上搜索hanlp的es分词插件,有好多demo

要回复问题请先登录注册