0
点赞
收藏
分享

微信扫一扫

Kibana操作Elasticsearch-IK分词器自定义词库


1.准备一台nginx,这个是用来存放分词文件的,然后在nginx中创建fenci.txt文件

Kibana操作Elasticsearch-IK分词器自定义词库_重启


2.访问测试fenci.txt

Kibana操作Elasticsearch-IK分词器自定义词库_docker_02


乱码不用管

3.配置ik分词器的远程词库地址

进入ik的plugins宿主机目录

/data/es/plugins/ik-7.4.2/config

vi编辑IKAnalyzer.cfg.xml文件

Kibana操作Elasticsearch-IK分词器自定义词库_docker_03


4.配置远程词库地址

Kibana操作Elasticsearch-IK分词器自定义词库_nginx_04


这里先不重启ES,先看看没有使用自定义词库的分词情况

Kibana操作Elasticsearch-IK分词器自定义词库_nginx_05


这里是没有将乔碧萝作为一个词的

5.配置好自定义远程词库后重启ES查看效果

docker restart es

Kibana操作Elasticsearch-IK分词器自定义词库_重启_06


注意:这里有一个坑,如果重启后配置的分词器不生效,且nginx也是在同一台宿主机上,用的也是docker安装的话那么就看看我的另一篇文章​​查看Docker中容器的IP​

后面有什么需要添加的行词,就可以直接往nginx的fenci.txt中加,这里一换行为分割


举报

相关推荐

0 条评论