0
点赞
收藏
分享

微信扫一扫

ElasticSearch 索引模块——集成IK中文分词

ElasticSearch 索引模块——集成IK中文分词_源码编译

 

下载插件地址 https://github.com/medcl/elasticsearch-analysis-ik/tree/v1.10.0

 

ElasticSearch 索引模块——集成IK中文分词_源码编译_02

 

对这个插件在window下进行解压

ElasticSearch 索引模块——集成IK中文分词_重启_03

 

 

用maven工具对插件进行源码编译(这里提醒一下,记得把目录切换到插件的解压目录下)

ElasticSearch 索引模块——集成IK中文分词_analyzer_04

 

 成功了!

ElasticSearch 索引模块——集成IK中文分词_重启_05

 

 把这个路径下的压缩包放到在集群的三个节点里建的ik目录(ik目录要提前建好)

ElasticSearch 索引模块——集成IK中文分词_重启_06

 

 

上传完了解压

 

ElasticSearch 索引模块——集成IK中文分词_重启_07

 其他两个节点slave1 slave2也是一样的操作!

重启elasticsearch!

ElasticSearch 索引模块——集成IK中文分词_analyzer_08

 

 可以看出来,重启出错了,ik插件的版本跟我安装的es版本不对应,返回官网看看是怎么回事

ElasticSearch 索引模块——集成IK中文分词_analyzer_09

ElasticSearch 索引模块——集成IK中文分词_重启_10

 

 因为我这里的es版本是2.4.3所以报错了!!!

重新下载新的版本,并在windows下解压

ElasticSearch 索引模块——集成IK中文分词_重启_11

 

 用maven对其进行源码编译

ElasticSearch 索引模块——集成IK中文分词_源码编译_12

 

然后重复前面的操作。重启es!

测试分词效果

curl 'http://master:9200/djt/_analyze?analyzer=ik_max_word&pretty=true' -d '{"text":"我是中国人"}'

ElasticSearch 索引模块——集成IK中文分词_源码编译_13

 

另外一种方式:

curl 'http://master:9200/djt/_analyze?analyzer=ik_smart&pretty=true' -d '{"text":"我是中国人"}'

 ElasticSearch 索引模块——集成IK中文分词_analyzer_14

 

举报

相关推荐

0 条评论