IKAnalyzer分词工具配合ElasticSearch+Kibana的使用
常用分析器结果如下:1. 标准分析器(standard):内置分析器,根据Unicode联盟定义的单词边界划分文本,删除绝大部分标点,最后将词条小写。中文会拆成一个一个的单字;2. 简单分析器(simple):内置分析器,在任何不是字母的地方分割文本,最后将词条小写。遇中文不会分割,但遇数字会分割;3. 停用词分析器(stop):内置分析器,在简单分析器(simple)的基础上加入停用词,默认使用_english_停用词;4. 空格分析器(whitespace):内置分析器,在空格的地方划分文本,但不会将词条小写;5. 模式分析器(pattern):内置分析器,通过正则匹配分割文本;6. 特定语言分析器(language):内置分析器,根据指定语言的特点,对文本进行划分;7. ik_smart分析器:ik中的一种分析器,会做最粗粒度的拆分,已被分出的词语将不会再次被其它词语占有,可以通过配置字典项指明哪些字组成的词可以不拆分,是汉语常用的分析器;8. ik_max_word分析器:ik中的另一种分析器,会将文本做最细粒度的拆分,尽可能多的拆分出词语,已被分出的字可能被包含在多个词中,可以通过配置字典项指明哪些字组成的词可以不拆分,是汉语常用的分析器。
如上图,一般来说,分词结果应该是: 我 是 中国人;此时就应该使用ik分词
Github上一位大神的,找您对应版本文件下载即可,小编本地环境6.3.2,故下载对应的6.3.2版本文件
重启Kibana和ElasticSearch,注意顺序,先关闭Kibana,再关闭ElasticSearch;打开时先打开ElasticSearch,在打开Kibana
输入汉字测试
如果里面和您查询的数据没有相应的记录,您可在该文件中手动添加即可。