热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE

本文主要介绍关于自然语言处理,知识图谱,人工智能的知识点,对【【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE】和【人工智能加持保险行业、又将迎来怎样的一个智能时代】有兴趣的

本文主要介绍关于自然语言处理,知识图谱,人工智能的知识点,对【【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE】和【人工智能加持保险行业、又将迎来怎样的一个智能时代】有兴趣的朋友可以看下由【科皮子菊】投稿的技术文章,希望该技术和经验能帮到你解决你所遇的Artificial Intelligence (AI),知识图谱相关技术问题。

人工智能加持保险行业、又将迎来怎样的一个智能时代

背景

了解知识图谱的友友应该都知道,知识图谱的构建可以从已有的非结构化、半结构化以及结构化的数据进行构建。对于结构化的数据,通常是数据库中的表,可以使用一些工具如R2RML语言。对于非结构化的数据,通常处理的对象是文本,但是随着研究领域的发展图片,视频等(多模态)也开始成为构建知识的来源。

相关技术也在不断发展,技术的可靠性可以通过有没有落地来验证。今天就介绍一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE。后续会根据情况对代码进行研读,并分享出来。

请添加图片描述

DeepKE是由浙江大学知识引擎实验室开发的中文关系抽取开源工具,官方网址:http://deepke.zjukg.org/CN/index.html,源码Github地址:https://github.com/zjunlp/DeepKE。DeepKE是一个开源和可扩展的知识图谱抽取工具,支持常规全监督、低资源少样本、长篇章文档和多模态场景,覆盖各种信息抽取任务包括命名实体识别、关系抽取和属性抽取。通过一个统一的框架,DeepKE 允许开发人员和研究人员自定义数据集和模型,并根据他们的需求从非结构化文本中抽取信息。DeepKE针对不同的功能和场景提供了各种功能模块和模型实现,以保持足够的模块化和可扩展性。此外,DeepKE还为初学者提供了全面的文档和 Google Colab 教程。用户可以通过“pip install deepke”安装 DeepKE。作者们也将长期提供维护以满足新的请求,支持新任务,和修复Bug。

如果对NLP中这个几个任务不熟的可以阅读源码,加深在该领域的理解。

功能介绍

官网提供了工具效果演示的网站页面,如下:http://deepke.zjukg.cn/CN/re_doc_show.html.

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


主要功能分为三个类别:单句、篇章级、多模态。

对于单句支持常用的:实体抽取、属性抽取、关系抽取三个任务。如实体抽取效果:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


篇章级、多模态则主要是关系抽取任务。

使用简介

具体使用可以参考官方文档:https://zjunlp.github.io/DeepKE/.该工具设计的框架如下:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


DeepKE包含命名实体识别、关系抽取和属性抽取三个模块,分别是三个任务。每个模块都有自己的子模块。例如,关系抽取模块中有标准的、少样本、文档级和多模态子模块。每个子模块由三部分组成:一组可用作tokenizer的工具、数据加载器、训练和预测时使用编码的一种处理模块。

项目也提供了多种使用方式,如pip安装到环境中,或者将源码下载到所需要使用的项目中,类似于项目的一个模块,然后再使用。以下载源码以及标注的NER任务为例,

我这里使用源码下载方式,如下:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE

进入对于案例使用文件夹路径,cd DeepKE/example/ner/standard,然后配置该案例运行所需要的包:

pytorch-transformers==1.2.0
torch==1.5.0
hydra-core==1.0.6
seqeval==0.0.5
tqdm==4.31.1
matplotlib==3.4.1
deepke

根据文档中的案例,我也创建了python3.8的环境:conda create -n deepke python=3.8,然后激活conda activate deepke。安装依赖包:pip install -r requirments.txt

第二步:获取标准的样例数据,通过wget 120.27.214.45/Data/ner/standard/data.tar.gz下载,然后tar -xzvf data.tar.gz解压,数据集和参数可以分别在data文件夹和conf文件夹中自定义。Dataset需要输入的是txt文本类型数据,文件数据格式需符合以下要求: 杭 B-LOC ‘\n’ 州 I-LOC ‘\n’ 真 O ‘\n’ 美 O ‘\n’。将对应的数据放到

模型训练,执行python run.py即开始训练,当然事情没有那么一帆风顺,我遇到了这个问题:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


根据提示,我卸载了protobuf,然后安装 pip install protobuf==3.20。除此之外,可以通过 wandb offline取消在线训练监控。再重新执行训练命令。又发现了一个问题:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


经过一番折腾,我查看了通过pip install deepke 到系统中的源码。:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


对应程序写死了,应该是版本不统一。当前pip install deepke 安装的最新版本是2.0.2版本,当前在的程序是主分支上代码。那么这时需要考虑下载成对应tag为2.0.2这个分支上的代码。或者将当前程序切换到对应分支上即可:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


在切换分支之前,确保不要对该项目进行改动,否则就会出现这种情况:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


调整后,就可以切换过去了:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


切换分支后,可以看到对应代码无须传参了:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


再根据原来的情况,设置相关的参数。再次执行 python run.py即可:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


当然,这里未使用GPU去训练。虽然电脑的GPU是GTX 950M 4G显存,但是性能跟不上,调整训练使用batch_size为4,以及使用GPU(gpu_id:0,use_gpu:True),当然,我也将环境中安装的pytorch版本换成GPU版本的了,因为默认安装的pytorch是cpu版本的,然后重新运行。但愿晚上下班后能看到训练好的结果。

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


这速度着实感人,希望早停机制尽快训练完毕。训练还挺快,晚上回来发现下午两点多就跑玩了,还不错。

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


在测试集上的效果也不错。

数据预测,数据预测执行python predict.py,阳光总在风雨后,没有什么能够随随便便成功,果不其然事情不是那么一帆风顺,

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


根据网上资料:AttributeError:module ‘distutils‘ has no attribute ‘version,降低setuptools包的版本即可。然后再次执行如下:

【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE


识别效果还可以哟。

总结

让机器从感知智能到认知智能发展,业界普遍认为知识图谱是非常不错的选择。在知识图谱构建过程中就少不了进行知识抽取。现在有这么一个开源工具对业界的发展以及相关技术的普及发挥着比较大的积极作用。具体的技术实现也值得我们去探索以及优化。

当然,这个工具在某种程度上还不成熟,不过总体还是不错的。后面有时间的话,我将会对其源码实现进行研究并分享,敬请期待哦。

本文《【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE》版权归科皮子菊所有,引用【NLP】一个支持低资源、长篇章、多模态的开源知识抽取工具——DeepKE需遵循CC 4.0 BY-SA版权协议。


推荐阅读
  • 中文分词_中文分词技术小结几大分词引擎的介绍与比较
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了中文分词技术小结几大分词引擎的介绍与比较相关的知识,希望对你有一定的参考价值。笔者想说:觉得英文与中文分词有很大的区别, ... [详细]
  • window下的python安装插件,Go语言社区,Golang程序员人脉社 ... [详细]
  • 上期使用LSTM做短文本分类效果不如CNN,或许有朋友会问什么场景下LSTM能体现出序列性的优势,本期使用双向LSTM-CNNs-CRF实现SequenceLabeling。CRF ... [详细]
  • 本文将详细介绍如何注册码云账号、配置SSH公钥、安装必要的开发工具,并逐步讲解如何下载、编译 HarmonyOS 2.0 源码。通过本文,您将能够顺利完成 HarmonyOS 2.0 的环境搭建和源码编译。 ... [详细]
  • PyTorch 使用问题:解决导入 torch 后 torch.cuda.is_available() 返回 False 的方法
    在配置 PyTorch 时,遇到 `torch.cuda.is_available()` 返回 `False` 的问题。本文总结了多种解决方案,并分享了个人在 PyCharm、Python 和 Anaconda3 环境下成功配置 CUDA 的经验,以帮助读者避免常见错误并顺利使用 GPU 加速。 ... [详细]
  • 步入人工智能新时代,掌握这些关键知识点至关重要。AI技术将成为人类的重要辅助工具,不仅能够扩展和增强人类的智能,还能帮助我们实现更加卓越的成就。新一代人工智能技术的发展将为各行各业带来深远的影响,推动社会进步与创新。 ... [详细]
  • 2018年热门趋势:轻松几步构建高效智能聊天机器人
    2018年,构建高效智能聊天机器人的简易步骤成为行业焦点。作为AI领域的关键应用,聊天机器人不仅被视为企业市场智能化转型的重要工具,也是技术变现的主要途径之一。随着自然语言处理技术的不断进步,越来越多的企业开始重视并投资于这一领域,以期通过聊天机器人提升客户服务体验和运营效率。 ... [详细]
  • 本文提供了PyTorch框架中常用的预训练模型的下载链接及详细使用指南,涵盖ResNet、Inception、DenseNet、AlexNet、VGGNet等六大分类模型。每种模型的预训练参数均经过精心调优,适用于多种计算机视觉任务。文章不仅介绍了模型的下载方式,还详细说明了如何在实际项目中高效地加载和使用这些模型,为开发者提供全面的技术支持。 ... [详细]
  • 本文通过复旦大学自然语言处理课程中的一个具体案例,详细解析了中文词汇分割技术的实现方法。该案例利用Java编程语言,结合词典和算法模型,展示了如何高效地进行中文文本的词汇分割,为相关研究和应用提供了宝贵的参考。 ... [详细]
  • 欢迎关注我们微信公众号,可以加入我们QQ人工智能行业交流群626784247.01在当前飞速发展的创新步伐中,科技似乎正在积极地解决人类最紧迫的难 ... [详细]
  • lightgbm过去版本安装包_集成学习算法LightGBM
    LightGBM在Kaggle,KDD等各类数据竞赛中,无论是分类问题还是回归问题亦或是排序问题,以GBDT(分类回归决策树 ... [详细]
  • python绘制拟合回归散点图_机器学习之利用Python进行简单线性回归分析
    前言:在利用机器学习方法进行数据分析时经常要了解变量的相关性,有时还需要对变量进行回归分析。本文首先对人工智能机器学习深度学习、相关分析因果分析回归分析 ... [详细]
  • 了解供应链简单来说,供应链涉及一系列旨在向最终用户提供产品或服务的步骤。企业组织及其供应商之间始终存在一个网络,来生产特定产品并将其交付给最终用户。该网络包括不同的活动、人员、实体 ... [详细]
  •   作为一种编程语言,Python比C#,Java,C和C++更具吸引力。它被称为“胶水语言”,它也被喜欢它的程序员誉为“美丽”的编程语言。从云计算,客户端到物联网终端,Pytho ... [详细]
  • 机器学习如何看世界 对抗机器学习诠释人工智能和人类思维的不同
    接近,计算,极限,看,世界,对抗,机器,学习,诠释,人工智能,和, ... [详细]
author-avatar
verde公寓_401
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有