热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

HanLP《自然语言处理入门》笔记2.词典分词

笔记转载于GitHub项目:https:github.comNLP-LOVEIntroduction-NLP2.词典分词中文分词:指的是将一段文本拆分为一系列单词的过程,这些单词顺

笔记转载于GitHub项目:https://github.com/NLP-LOVE/Introduction-NLP


2. 词典分词


  • 中文分词:指的是将一段文本拆分为一系列单词的过程,这些单词顺序拼接后等于原文本。

  • 中文分词算法大致分为基于词典规则基于机器学习这两大派。

2.1 什么是词


  • 在基于词典的中文分词中,词的定义要现实得多:词典中的字符串就是词


  • 词的性质--齐夫定律:一个单词的词频与它的词频排名成反比。


2.2 词典

互联网词库(SogouW, 15万个词条)、清华大学开放中文词库(THUOCL)、HanLP词库(千万级词条)

这里以HanLP附带的迷你核心词典为例(本项目路径):data/dictionnary/CoreNatureDictionary.mini.txt

上升 v 98 vn 18
上升期 n 1
上升股 n 1
上午 t 147
上半叶 t 3
上半场 n 2
上半夜 t 1

HanLP中的词典格式是一种以空格分隔的表格形式,第一列是单词本身,之后每两列分别表示词性与相应的词频。


2.3 切分算法

首先,加载词典:

def load_dictionary():
dic = set()
# 按行读取字典文件,每行第一个空格之前的字符串提取出来。
for line in open("CoreNatureDictionary.mini.txt","r"):
dic.add(line[0:line.find(' ')])

return dic

  1. 完全切分

    指的是,找出一段文本中的所有单词。

    def fully_segment(text, dic):
    word_list = []
    for i in range(len(text)): # i 从 0 到text的最后一个字的下标遍历
    for j in range(i + 1, len(text) + 1): # j 遍历[i + 1, len(text)]区间
    word = text[i:j] # 取出连续区间[i, j]对应的字符串
    if word in dic: # 如果在词典中,则认为是一个词
    word_list.append(word)
    return word_list
    dic = load_dictionary()
    print(fully_segment('就读北京大学', dic))

    输出:

    ['就', '就读', '读', '北', '北京', '北京大学', '京', '大', '大学', '学']

    输出了所有可能的单词。由于词库中含有单字,所以结果中也出现了一些单字。


  2. 正向最长匹配

    上面的输出并不是中文分词,我们更需要那种有意义的词语序列,而不是所有出现在词典中的单词所构成的链表。比如,我们希望“北京大学”成为一整个词,而不是“北京 + 大学”之类的碎片。具体来说,就是在以某个下标为起点递增查词的过程中,优先输出更长的单词,这种规则被称为最长匹配算法。从前往后匹配则称为正向最长匹配,反之则称为逆向最长匹配

    def forward_segment(text, dic):
    word_list = []
    i = 0
    while i longest_word = text[i] # 当前扫描位置的单字
    for j in range(i + 1, len(text) + 1): # 所有可能的结尾
    word = text[i:j] # 从当前位置到结尾的连续字符串
    if word in dic: # 在词典中
    if len(word) > len(longest_word): # 并且更长
    longest_word = word # 则更优先输出
    word_list.append(longest_word) # 输出最长词
    i += len(longest_word) # 正向扫描
    return word_list
    dic = load_dictionary()
    print(forward_segment('就读北京大学', dic))
    print(forward_segment('研究生命起源', dic))

    输出:

    ['就读', '北京大学']
    ['研究生', '命', '起源']

    第二句话就会产生误差了,我们是需要把“研究”提取出来,结果按照正向最长匹配算法就提取出了“研究生”,所以人们就想出了逆向最长匹配。


  3. 逆向最长匹配

    def backward_segment(text, dic):
    word_list = []
    i = len(text) - 1
    while i >= 0: # 扫描位置作为终点
    longest_word = text[i] # 扫描位置的单字
    for j in range(0, i): # 遍历[0, i]区间作为待查询词语的起点
    word = text[j: i + 1] # 取出[j, i]区间作为待查询单词
    if word in dic:
    if len(word) > len(longest_word): # 越长优先级越高
    longest_word = word
    break
    word_list.insert(0, longest_word) # 逆向扫描,所以越先查出的单词在位置上越靠后
    i -= len(longest_word)
    return word_list
    dic = load_dictionary()
    print(backward_segment('研究生命起源', dic))
    print(backward_segment('项目的研究', dic))

    输出:

    ['研究', '生命', '起源']
    ['项', '目的', '研究']

    第一句正确了,但下一句又出错了,可谓拆东墙补西墙。另一些人提出综合两种规则,期待它们取长补短,称为双向最长匹配。


  4. 双向最长匹配

    这是一种融合两种匹配方法的复杂规则集,流程如下:


    • 同时执行正向和逆向最长匹配,若两者的词数不同,则返回词数更少的那一个。

    • 否则,返回两者中单字更少的那一个。当单字数也相同时,优先返回逆向最长匹配的结果。

    def count_single_char(word_list: list): # 统计单字成词的个数
    return sum(1 for word in word_list if len(word) == 1)
    def bidirectional_segment(text, dic):
    f = forward_segment(text, dic)
    b = backward_segment(text, dic)
    if len(f) return f
    elif len(f) > len(b):
    return b
    else:
    if count_single_char(f) return f
    else:
    return b # 都相等时逆向匹配优先级更高
    print(bidirectional_segment('研究生命起源', dic))
    print(bidirectional_segment('项目的研究', dic))

    输出:

    ['研究', '生命', '起源']
    ['项', '目的', '研究']


通过以上几种切分算法,我们可以做一个对比:

上图显示,双向最长匹配的确在2、3、5这3种情况下选择出了最好的结果,但在4号句子上选择了错误的结果,使得最终正确率 3/6 反而小于逆向最长匹配的 4/6 , 由此,规则系统的脆弱可见一斑。规则集的维护有时是拆东墙补西墙,有时是帮倒忙。


2.4 字典树

匹配算法的瓶颈之一在于如何判断集合(词典)中是否含有字符串。如果用有序集合TreeMap)的话,复杂度是o(logn) ( n是词典大小);如果用散列表( Java的HashMap. Python的dict )的话,账面上的时间复杂度虽然下降了,但内存复杂度却上去了。有没有速度又快、内存又省的数据结构呢?这就是字典树


  1. 什么是字典树

    字符串集合常用宇典树(trie树、前缀树)存储,这是一种字符串上的树形数据结构。字典树中每条边都对应一个字, 从根节点往下的路径构成一个个字符串。字典树并不直接在节点上存储字符串, 而是将词语视作根节点到某节点之间的一条路径,并在终点节点(蓝色) 上做个标记“该节点对应词语的结尾”。字符串就是一 条路径,要查询一个单词,只需顺着这条路径从根节点往下走。如果能走到特殊标记的节点,则说明该字符串在集合中,否则说明不存在。一个典型的字典树如下图所示所示。

    其中,蓝色标记着该节点是一个词的结尾,数字是人为的编号。按照路径我们可以得到如下表所示:














    词语路径
    入门0-1-2
    自然0-3-4
    自然人0-3-4-5
    自然语言0-3-4-6-7
    自语0-3-8

    当词典大小为 n 时,虽然最坏情况下字典树的复杂度依然是O(logn) (假设子节点用对数复杂度的数据结构存储,所有词语都是单字),但它的实际速度比二分查找快。这是因为随着路径的深入,前缀匹配是递进的过程,算法不必比较字符串的前缀。


  2. 字典树的实现

    由上图可知,每个节点都应该至少知道自己的子节点与对应的边,以及自己是否对应一个词。如果要实现映射而不是集合的话,还需要知道自己对应的值。我们约定用值为None表示节点不对应词语,虽然这样就不能插人值为None的键了,但实现起来更简洁。那么字典树的实现参见项目路径(与书上略有不同,我写的比较简洁):code/ch02/trie.py

    通过debug运行 trie.py 代码,可以观察到 trie 类的字典树结构:


2.5 基于字典树的其它算法

字典树的数据结构在以上的切分算法中已经很快了,但厉害的是作者通过自己的努力改进了基于字典树的算法,把分词速度推向了千万字每秒的级别,这里不一一详细介绍,详情见书,主要按照以下递进关系优化:


  • 首字散列其余二分的字典树

  • 双数组字典树

  • AC自动机(多模式匹配)

  • 基于双数组字典树的AC自动机

2.6 HanLP的词典分词实现


  1. DoubleArrayTrieSegment

    DoubleArrayTrieSegment分词器是对DAT最长匹配的封装,默认加载hanlp.properties中CoreDictionaryPath制定的词典。

    from pyhanlp import *
    # 不显示词性
    HanLP.Config.ShowTermNature = False
    # 可传入自定义字典 [dir1, dir2]
    segment = DoubleArrayTrieSegment()
    # 激活数字和英文识别
    segment.enablePartOfSpeechTagging(True)
    print(segment.seg("江西鄱阳湖干枯,中国最大淡水湖变成大草原"))
    print(segment.seg("上海市虹口区大连西路550号SISU"))

    输出:

    [江西, 鄱阳湖, 干枯, ,, 中国, 最大, 淡水湖, 变成, 大草原]
    [上海市, 虹口区, 大连, 西路, 550, 号, SISU]


  2. 去掉停用词

    停用词词典文件:data/dictionnary/stopwords.txt

    该词典收录了常见的中英文无意义词汇(不含敏感词),每行一个词。

    def load_from_file(path):
    """
    从词典文件加载DoubleArrayTrie
    :param path: 词典路径
    :return: 双数组trie树
    """
    map = JClass('java.util.TreeMap')() # 创建TreeMap实例
    with open(path) as src:
    for word in src:
    word = word.strip() # 去掉Python读入的\n
    map[word] = word
    return JClass('com.hankcs.hanlp.collection.trie.DoubleArrayTrie')(map)
    ## 去掉停用词
    def remove_stopwords_termlist(termlist, trie):
    return [term.word for term in termlist if not trie.containsKey(term.word)]
    trie = load_from_file('stopwords.txt')
    termlist = segment.seg("江西鄱阳湖干枯了,中国最大的淡水湖变成了大草原")
    print('去掉停用词前:', termlist)
    print('去掉停用词后:', remove_stopwords_termlist(termlist, trie))

    输出:

    去掉停用词前: [江西, 鄱阳湖, 干枯, 了, ,, 中国, 最大, 的, 淡水湖, 变成, 了, 大草原]
    去掉停用词后: ['江西', '鄱阳湖', '干枯', '中国', '最大', '淡水湖', '变成', '大草原']


2.7 GitHub项目

HanLP何晗--《自然语言处理入门》笔记:

https://github.com/NLP-LOVE/Introduction-NLP

项目持续更新中......

目录

















章节
第 1 章:新手上路
第 2 章:词典分词
第 3 章:二元语法与中文分词
第 4 章:隐马尔可夫模型与序列标注
第 5 章:感知机分类与序列标注
第 6 章:条件随机场与序列标注
第 7 章:词性标注
第 8 章:命名实体识别
第 9 章:信息抽取
第 10 章:文本聚类
第 11 章:文本分类
第 12 章:依存句法分析
第 13 章:深度学习与自然语言处理




  • 点赞



  • 收藏



  • 分享




    • 文章举报






雨落无影
发布了163 篇原创文章 · 获赞 281 · 访问量 22万+
私信

关注

推荐阅读
  • 「爆干7天7夜」入门AI人工智能学习路线一条龙,真的不能再透彻了
    前言应广大粉丝要求,今天迪迦来和大家讲解一下如何去入门人工智能,也算是迪迦对自己学习人工智能这么多年的一个总结吧,本条学习路线并不会那么 ... [详细]
  • 点击上方,选择星标或置顶,每天给你送干货!阅读大概需要4分钟跟随小博主,每天进步一丢丢来自:NLP太难了公众号 ... [详细]
  • 本文将给大家介绍五个十分可怕但还鲜为人知的人工智能机器学习项目,囊括了一些潜在的机器学习以及人工智能的新想法。它们基本都是Python项目。1.LiveLossPlo ... [详细]
  • 【跨越鸿沟】学术界与工业界的GAP有多大?
    来自:美团技术团队2020年7月31日,由中国图象图形学学会主办、视觉大数据专委会承办,北京智源人工智能研究院和美团协办的ECCV2020 ... [详细]
  • 2018年人工智能大数据的爆发,学Java还是Python?
    本文介绍了2018年人工智能大数据的爆发以及学习Java和Python的相关知识。在人工智能和大数据时代,Java和Python这两门编程语言都很优秀且火爆。选择学习哪门语言要根据个人兴趣爱好来决定。Python是一门拥有简洁语法的高级编程语言,容易上手。其特色之一是强制使用空白符作为语句缩进,使得新手可以快速上手。目前,Python在人工智能领域有着广泛的应用。如果对Java、Python或大数据感兴趣,欢迎加入qq群458345782。 ... [详细]
  • 开发笔记:加密&json&StringIO模块&BytesIO模块
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了加密&json&StringIO模块&BytesIO模块相关的知识,希望对你有一定的参考价值。一、加密加密 ... [详细]
  • 本文介绍了绕过WAF的XSS检测机制的方法,包括确定payload结构、测试和混淆。同时提出了一种构建XSS payload的方法,该payload与安全机制使用的正则表达式不匹配。通过清理用户输入、转义输出、使用文档对象模型(DOM)接收器和源、实施适当的跨域资源共享(CORS)策略和其他安全策略,可以有效阻止XSS漏洞。但是,WAF或自定义过滤器仍然被广泛使用来增加安全性。本文的方法可以绕过这种安全机制,构建与正则表达式不匹配的XSS payload。 ... [详细]
  • EzPP 0.2发布,新增YAML布局渲染功能
    EzPP发布了0.2.1版本,新增了YAML布局渲染功能,可以将YAML文件渲染为图片,并且可以复用YAML作为模版,通过传递不同参数生成不同的图片。这个功能可以用于绘制Logo、封面或其他图片,让用户不需要安装或卸载Photoshop。文章还提供了一个入门例子,介绍了使用ezpp的基本渲染方法,以及如何使用canvas、text类元素、自定义字体等。 ... [详细]
  • GPT-3发布,动动手指就能自动生成代码的神器来了!
    近日,OpenAI发布了最新的NLP模型GPT-3,该模型在GitHub趋势榜上名列前茅。GPT-3使用的数据集容量达到45TB,参数个数高达1750亿,训练好的模型需要700G的硬盘空间来存储。一位开发者根据GPT-3模型上线了一个名为debuid的网站,用户只需用英语描述需求,前端代码就能自动生成。这个神奇的功能让许多程序员感到惊讶。去年,OpenAI在与世界冠军OG战队的表演赛中展示了他们的强化学习模型,在限定条件下以2:0完胜人类冠军。 ... [详细]
  • 本文整理了Java面试中常见的问题及相关概念的解析,包括HashMap中为什么重写equals还要重写hashcode、map的分类和常见情况、final关键字的用法、Synchronized和lock的区别、volatile的介绍、Syncronized锁的作用、构造函数和构造函数重载的概念、方法覆盖和方法重载的区别、反射获取和设置对象私有字段的值的方法、通过反射创建对象的方式以及内部类的详解。 ... [详细]
  • HashMap的相关问题及其底层数据结构和操作流程
    本文介绍了关于HashMap的相关问题,包括其底层数据结构、JDK1.7和JDK1.8的差异、红黑树的使用、扩容和树化的条件、退化为链表的情况、索引的计算方法、hashcode和hash()方法的作用、数组容量的选择、Put方法的流程以及并发问题下的操作。文章还提到了扩容死链和数据错乱的问题,并探讨了key的设计要求。对于对Java面试中的HashMap问题感兴趣的读者,本文将为您提供一些有用的技术和经验。 ... [详细]
  • 人工智能推理能力与假设检验
    最近Google的Deepmind开始研究如何让AI做数学题。这个问题的提出非常有启发,逻辑推理,发现新知识的能力应该是强人工智能出现自我意识之前最需要发展的能力。深度学习目前可以 ... [详细]
  • 前言4.1回到基础赋值(略)barfoo[:]copy.deepcopy()等式(略)is条件语句ifelifall()any()4.2序列字符串链表元组序列类型上的操作表4-1P ... [详细]
  • 招聘 | 涂鸦智能招聘IoT安全人才
    招聘 | 涂鸦智能招聘IoT安全人才 ... [详细]
  • 作为机器学习最重要的一个分支,近年来深度学习(DeepLearning)发展势头迅猛,借助庞大的数据 ... [详细]
author-avatar
歪歪Doris
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有