热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

ElasticSearch与ICTCLAS中文分词系统

为什么80%的码农都做不了架构师?1.ElasticSearchSmartChineseAnalysis插件今天在学习ElasticSearch插件时ÿ

为什么80%的码农都做不了架构师?>>>   hot3.png

1. ElasticSearch Smart Chinese Analysis插件

    今天在学习ElasticSearch插件时,其中包含了Smart Chinese Analysis插件,这个插件集成了Lucene的Smart Chinese analysis模块到ES中,可以对中文或中英混合text来分析[1]。

    再搜索了Lucene的Smart Chinese analysis模块,发现是2009年5月9日,Gao xiaoping贡献给Apache Lucene社区的智能中文分词模块imdict-chinese-analyzer, 当时的Lucene是2.4.1版本[2,3]。在[3]中,有对imdict-chinese-analyzer的简要描述。

2.  imdict智能词典所采用的智能中文分词程序

    imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供*简体中文*分词支持。

    Apache Lucene的中文分词

    Apache Lucene是java实现的一个高效的文本搜索引擎软件,它适用于几乎所有要求全文检索的应用项目,尤其是跨平台应用。对英文的处理已经非常完善,但在中文方面仍然非常欠缺,目前lucene的contribution中,中日韩语言只有一个分析器(cjk analyzer),还是按中日韩文字来逐个切分的,无论从索引效率还是搜索准确度上都很难符合要求。

    为什么需要智能分词

    中文与西方语言最大的区别就在于语句的词汇之间没有明显的分词界限,但是计算机自然语言处理是按词汇来进行分析的,因此中文分词的效果直接影响中文检索和自然语言处理的准确性。例如: “我购买了道具和服装”,如果采用比较简单的正向最大匹配算法,分词结果是“我 购买 了 道具 和服 装”,明显偏离了原句的意思;而采用基于HMM的智能分词模型,能够综合分析句子的结构、各个词的频率以及各个词汇之间的跳转频率,从而能产生最优化的分词结果:“我 购买 了 道具 和 服装”。

    imdict-chinese-analyzer的特性

    1. 完全Unicode支持

    分词核心模块完全采用Unicode编码,无须各种汉字编码的转换,极大的提升了分词的效率。

    2. 提升搜索效率

    根据imdict智能词典的实践,在有智能中文分词的情况下,索引文件比没有中文分词的索引文件小1/3

    3. 提高搜索准确度

    imdict-chinese-analyzer采用了HHMM分词模型,极大的提高了分词的准确率,在此基础上的搜索,比对汉字逐个切分要准确得多!

    4. 更高效的数据结构

    为了提高效率,针对常用中文检索的应用场景,imdict-chinese-analyzer对一些不必要的功能进行了删减,例如词性标注、人名识别、时间识别等等。另外还修改了算法的数据结构,在内存占用量缩减到1/3的情况下把效率提升了数倍。

    三种智能分词软件效率对比

    ICTCLAS 1.0是中科院张华平博士开发的一款基于HHMM的智能分词软件,2009年5月时版本为3.0(商业版,C++实现),而imdict-chinese-analyzer 和 ictclas4j 都是基于同一模型开发的Java版分词软件,三者的分词效率对比如下图:

  |                            | ictclas4j      | imdict-chinese-analyzer | ICTCLAS 3.0 |

                               |:--------------|:----------------------------|:----------------|

 | 分词速度(字节/秒) | 13.86       | 483.64                        | 678.15        |

| 分词速度(汉字/秒) | 7439      | 259517                        | 363888      |

测试数据采用中文文件大小为62390KB,内容长度为33477693字符,各软件独立分词并将分开的词写到文件里。

测试环境为:酷睿E7200双核,内存2G,JDK参数为:"-Xms512m -Xmx1024m "

由此对比可以看出, imdict-chinese-analyzer的分词效率与C++实现的ICTCLAS 3.0的分词效率在同一个数量级,是 ictclas4j 的 36 倍!

3. Lucene SmartChineseAnalyzer

    imdict-chinese-analyzer在Apache Lucene中被重新命名为SmartChineseAnalyzer。其源代码中有以下注释:

    SmartChineseAnalyzer 是一个智能中文分词模块, 能够利用概率对汉语句子进行最优切分, 并内嵌英文tokenizer,能有效处理中英文混合的文本内容。

    它的原理基于自然语言处理领域的隐马尔科夫模型(HMM), 利用大量语料库的训练来统计汉语词汇的词频和跳转概率, 从而根据这些统计结果对整个汉语句子计算最似然(likelihood)的切分。

    因为智能分词需要词典来保存词汇的统计值,SmartChineseAnalyzer的运行需要指定词典位置,如何指定词典位置请参考 org.apache.lucene.analysis.cn.smart.AnalyzerProfile

    SmartChineseAnalyzer的算法和语料库词典来自于ictclas(http://ictclas.nlpir.org/downloads)

    @see org.apache.lucene.analysis.cn.smart.AnalyzerProfile

4. NLPIR汉语分词系统与张华平博士

     NLPIR汉语分词系统,又名ICTCLAS,当前最新版本是2017。NLP表示自然语言处理,IR表示信息检索,NLPIR.org是自然语言处理与信息检索共享平台。

     张华平,NLPIR(ICTCLAS)创始人与开发者,2009年担任北京理工大学大数据搜索挖掘实验室主任,博士,副教授。其微博见[5]

 

参考资料:

[1] Smart Chinese Analysis plugin, https://www.elastic.co/guide/en/elasticsearch/plugins/master/analysis-smartcn.html

[2] contrib intelligent Analyzer for Chinese, https://issues.apache.org/jira/browse/LUCENE-1629

[3] Source code of imdict-chinese-analyzer, https://code.google.com/archive/p/imdict-chinese-analyzer/

[4] NLPIR/ICTCLAS汉语分词系统, http://ictclas.nlpir.org/downloads

[5] 张华平博士微博, http://weibo.com/drkevinzhang?refer_flag=1005055013_&is_hot=1


转:https://my.oschina.net/1pei/blog/898291



推荐阅读
  • 本文详细介绍了在 Windows 7 上安装和配置 PHP 5.4 的 Memcached 分布式缓存系统的方法,旨在减少数据库的频繁访问,提高应用程序的响应速度。 ... [详细]
  • 近期在研究Java IO流技术时,遇到了一个关于如何正确读取Doc文档而不出现乱码的问题。本文将详细介绍使用Apache POI库处理Doc和Docx文件的具体方法,包括必要的库引入和示例代码。 ... [详细]
  • 本文探讨了在使用Apache HttpClient 4.x(作为commons-httpclient 3.x的后续版本)时,如何配置默认的HttpContext,以确保每次执行请求时无需显式传递上下文。 ... [详细]
  • 本文详细介绍了跨站脚本攻击(XSS)的基本概念、工作原理,并通过实际案例演示如何构建XSS漏洞的测试环境,以及探讨了XSS攻击的不同形式和防御策略。 ... [详细]
  • 使用 ModelAttribute 实现页面数据自动填充
    本文介绍了如何利用 Spring MVC 中的 ModelAttribute 注解,在页面跳转后自动填充表单数据。主要探讨了两种实现方法及其背后的原理。 ... [详细]
  • 本文详细介绍了Apache Spark 2.2.0版本中集群模式的基本概念和工作流程,包括如何通过集群管理器分配资源,以及Spark应用程序在集群中的运行机制。链接:http://spark.apache.org/docs/2.2.0/cluster-overview.html ... [详细]
  • 如何使用Maven将依赖插件一并打包进JAR文件
    本文详细介绍了在使用Maven构建项目时,如何将所需的依赖插件一同打包进最终的JAR文件中,以避免手动部署依赖库的麻烦。 ... [详细]
  • 深入解析Nacos服务自动注册机制
    本文将探讨Nacos服务自动注册的具体实现方法,特别是如何通过Spring事件机制完成服务注册。通过对Nacos源码的详细分析,帮助读者理解其背后的原理。 ... [详细]
  • SpringBoot底层注解用法及原理
    2.1、组件添加1、Configuration基本使用Full模式与Lite模式示例最佳实战配置类组件之间无依赖关系用Lite模式加速容器启动过程,减少判断配置类组 ... [详细]
  • 本文介绍如何通过创建数据库触发器来限制Oracle数据库中特定用户的登录IP地址,以增强系统的安全性。示例代码展示了如何阻止非授权IP地址的登录尝试。 ... [详细]
  • 前端技术分享——利用Canvas绘制鼠标轨迹
    作为一名前端开发者,我已经积累了Vue、React、正则表达式、算法以及小程序等方面的技能,但Canvas一直是我的盲区。因此,我在2018年为自己设定了一个新的学习目标:掌握Canvas,特别是如何使用它来创建CSS3难以实现的动态效果。 ... [详细]
  • iOS 小组件开发指南
    本文详细介绍了iOS小部件(Widget)的开发流程,从环境搭建、证书配置到业务逻辑实现,提供了一系列实用的技术指导与代码示例。 ... [详细]
  • 本文介绍了如何通过创建自定义 XML 文件来修改 Android 中 Spinner 的项样式,包括颜色和大小的调整。 ... [详细]
  • 本文探讨了在 PHP 的 Zend 框架下,使用 PHPUnit 进行单元测试时遇到的 Zend_Controller_Response_Exception 错误,并提供了解决方案。 ... [详细]
  • 本文探讨了Android系统中联系人数据库的设计,特别是AbstractContactsProvider类的作用与实现。文章提供了对源代码的详细分析,并解释了该类如何支持跨数据库操作及事务处理。源代码可从官方Android网站下载。 ... [详细]
author-avatar
lanhai
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有