码迷,mamicode.com
首页 > 其他好文 > 详细

es7.+(四)--分词,ik分词器的安装

时间:2021-03-03 12:23:40      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:自定义   ace   wget   phrase   自定义分词器   --   进入   elastic   lease   

概念

一个 tokenizer(分词器)接收一个字符流,将之割为独立的 tokens(词元,通常是独立的单词),然后输出 tokens流。

例如,whitespace tokenizer遇到空白字符时分割文。它会将文本 "Quick brown fox!“ 分割为 [Quick, brown, fox]。该 tokenizer(分词器)还负责记录各个term(词条)的顺序或 position 位置(用于 phrase短语和 word proximity 词近邻查询),以及term(词条)所代表的原始word(单词)的 start(起始)和end(结束)的 character offsets(字符偏移量)(用于高亮显示搜索的内容)。

ElasticSearch 提供了很多内置的分词器,可以用来构建 custom analyzers(自定义分词器)

安装IK分词器

注意:不能用默认elasticsearch-plugin install xxx.zip进行安装
进入es容器内部 plugins目录
docker exec -it 容器id /bin/bash

安装wegt
yum install wget
安装对应es版本的ik插件
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.6.2/elasticsearch-analysis-ik-7.6.2.zip

es7.+(四)--分词,ik分词器的安装

标签:自定义   ace   wget   phrase   自定义分词器   --   进入   elastic   lease   

原文地址:https://www.cnblogs.com/psyduck/p/14472220.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!