热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Atlas元数据管理学习

目录概述ApacheAtlas架构ApacheAtlas核心组件安装API二次开发RestfulAPI概述ApacheAtlas是Hadoop社区为解决Hadoop生态系统的元数据

目录
  • 概述
  • Apache Atlas 架构
  • Apache Atlas 核心组件
  • 安装
  • API 二次开发
  • Restful API


概述

Apache Atlas 是 Hadoop 社区为解决 Hadoop 生态系统的元数据治理问题而产生的开源项目,它为

Hadoop 集群提供了包括 数据分类、集中策略引擎、数据血缘、安全和生命周期管理 在内的元数据治

理核心能力。

1、Atlas 支持各种 Hadoop 和非 Hadoop 元数据类型

2、提供了丰富的 REST API 进行集成(非常容易扩展,自己开发WEB)

3、对数据血缘的追溯达到了字段级别,这种技术还没有其实类似框架可以实现(最牛B亮点)

4、对权限也有很好的控制


Apache Atlas 架构


Apache Atlas 核心组件

Type System:Atlas 允许用户为他们想要管理的元数据对象定义一个模型。该模型由称为 "类型"

的定义组成。"类型" 的 实例被称为 "实体" 表示被管理的实际元数据对象。类型系统是一个组件,允许用户定义和管理类型和实体。由 Atlas 管理的所有元数据对象(例如 Hive 表)都使用类型进

行建模,并表示为实体。要在 Atlas 中存储新类型的元数据,需要了解类型系统组件的概念。

Ingest/Export:Ingest 组件允许将元数据添加到 Atlas。类似地,Export 组件暴露由 Atlas 检测到

的元数据更改,以作为事件引发,消费者可以使用这些更改事件来实时响应元数据更改。

Graph Engine:在内部,Atlas 通过使用图形模型管理元数据对象。以实现元数据对象之间的巨大

灵活性和丰富的关系。图形引擎是负责在类型系统的类型和实体之间进行转换的组件,以及基础图

形模型。除了管理图形对象之外,图形引擎还为元数据对象创建适当的索引,以便有效地搜索它

们。

Titan:目前,Atlas 使用 Titan 图数据库来存储元数据对象。 Titan 使用两个存储:默认情况下元

数据存储配置为 HBase ,索引存储配置为 Solr(为了实现快速检索)。也可以通过构建相应的配置文件使用BerkeleyDB

存储元数据存储 和使用ElasticSearch存储 Index。元数据存储用于存储元数据对象本身,索引存

储用于存储元数据属性的索引,其允许高效搜索。

Integration

两种方法管理 Atlas 中的元数据

API:Atlas 的所有功能都可以通过 REST API 提供给最终用户,允许创建,更新和删除类型和实

体。它也是查询和发现通过 Atlas 管理的类型和实体的主要方法。

Messaging:除了 API 之外,用户还可以选择使用基于 Kafka 的消息接口与 Atlas 集成。这对于将

元数据对象传输到 Atlas 以及从 Atlas 使用可以构建应用程序的元数据更改事件都非常有用。如果

希望使用与 Atlas 更松散耦合的集成,这可以允许更好的可扩展性,可靠性等,消息传递接口是特

别有用的。Atlas 使用 Apache Kafka 作为通知服务器用于钩子和元数据通知事件的下游消费者之

间的通信。

事件由钩子(hook) 和 Atlas 写到不同的 Kafka 主题:

ATLAS_HOOK:来自各个组件的 Hook 的元数据通知事件通过写入到名为 ATLAS_HOOK 的 Kafka

topic 发送到 Atlas(消息入口:采集外部元数据)

ATLAS_ENTITIES:从 Atlas 到其他集成组件(如 Ranger)的事件写入到名为 ATLAS_ENTITIES 的

Kafka topic(消息出口:暴露元数据变更事件给外部组件)

Metadata source:

Atlas 支持与许多元数据源的集成,将来还会添加更多集成。



  • Hive:通过 hive bridge, atlas 可以接入 Hive 的元数据,包括 hive_db / hive_table /

    hive_column / hive_process / hive_db_ddl / hive_table_ddl 等

  • Sqoop:通过 sqoop bridge,atlas 可以接入关系型数据库的元数据,包括

    sqoop_operation_type / sqoop_dbstore_usage / sqoop_process / sqoop_dbdatastore

  • Falcon:通过 falcon bridge,atlas 可以接入 Falcon 的元数据,包括 falcon_cluster /

    falcon_feed / falcon_feed_creation / falcon_feed_replication / falcon_process

  • Storm:通过 storm bridge,atlas 可以接入流式处理的元数据,包括 storm_topology /

    storm_spout / storm_bolt / storm_node

    Atlas 集成大数据组件的元数据源需要实现以下两点:

  • 首先,需要基于 atlas 的类型系统定义能够表达大数据组件元数据对象的元数据模型(例如 Hive

    的元数据模型实现在org.apache.atlas.hive.model.HiveDataModelGenerator);

  • 然后,需要提供 hook 组件去从大数据组件的元数据源中提取元数据对象,实时侦听元数据的变更

    并反馈给 atlas;

Apache Atlas 核心特性:

1、数据分类

2、集中审计

3、搜索与血缘

4、安全与策略引擎


安装



  1. 下载

    https://www.apache.org/dyn/closer.cgi/atlas/2.1.0/apache-atlas-2.1.0-sources.tar.gz

  2. 解压缩

    tar -zxvf apache-atlas-2.1.0-sources.tar.gz -C apps/

  3. 修改编译配置

    vim pom.xml

    主要修改的是 hbase 和 solr:

2.8.3
2.2.5
7.7.3
3.1.0
2.0.0
1.2.0
3.4.14
2.11
1.16.0
0.8
1.4.6.2.3.99.0-195
4.0.1
5.6.4

修改 distro 项目的 pom信息:

http://mirrors.tuna.tsinghua.edu.cn/apache/hbase/${hbase.version}/hba
se-${hbase.version}-bin.tar.gz

http://mirrors.tuna.tsinghua.edu.cn/apache/lucene/solr/${solr.version}
/solr-${solr.version}.tgz



  1. 编译

    调高 maven 使用内存

    export MAVEN_OPTS="-Xms2g -Xmx2g"

    先去下载所有的 jar: mvn dependency:tree

    mvn clean package -DskipTests -Pdist -Denforcer.skip=true -Dmaven.test.skip=true

  2. 获取安装包

    编译完成之后,会产生打包结果(apache-atlas-2.1.0-bin.tar.gz),所在位置是:源码目录中的新出现的 distro/target 目录

    编译的时候遇到找不到相应的包,需要 pom.xml增加相应的依赖。

    安装巨复杂 需要各种配置,不建议。

    推荐方式 直接 在 Ambari 中启动安装引导程序


API 二次开发



  • Type:Atlas 中的 “类型” 是一个定义, 说明如何存储并访问特定类型的元数据对象,。类型表示一个特征

    或一个特性集合, 这些属性定义了元数据对象。具有开发背景的用户将识别类型的相似性, 以面向对象编

    程语言的 “Class” 定义或关系的 “table schema”数据库。

  • Entity:Atlas 中的一个 “实体” 是类 “type” 的特定值或实例, 因此表示特定的现实世界中的元数据对

    象。回指我们的面向对象的类比编程语言, “instance” 是某个 “Class” 的 “Object”。

  • Attribute:属性定义在复合 metatypes 中, 如 Class 和 Struct。可以简单将属性称为具有名称和

    metatype 值。然而 Atlas 中的属性有更多的属性来定义与 type system 相关的更多概念。


Restful API



  • 获取所有的types:http://bigdata23:21000/api/atlas/types

  • 所有所有的types:http://bigdata23:21000/api/atlas/types?type=STRUCT 或者 http://bigdata23:210

    00/api/atlas/types?type=CLASS 或者 http://bigdata23:21000/api/atlas/types?type=TRAIT

  • 获取某一个type:http://bigdata23:21000/api/atlas/types/hive_column

  • 创建新type:http://bigdata23:21000/api/atlas/type

  • 创建新entity:http://bigdata23:21000/api/atlas/entities (entities:是一个数组)

  • 获取一个entity:http://bigdata23:21000/api/atlas/entities/guid (guid是entity的id)

  • 获取一个包含某个attribute(属性)的entity:http://bigdata23:21000/api/atlas/entities?type=type_na

    me&property=unique_attribute_name&value=unique_attribute_value

  • 更新entity的一个attribute属性:http://bigdata23:21000/api/atlas/entities/GUID



推荐阅读
  • 本文介绍了如何使用PHP向系统日历中添加事件的方法,通过使用PHP技术可以实现自动添加事件的功能,从而实现全局通知系统和迅速记录工具的自动化。同时还提到了系统exchange自带的日历具有同步感的特点,以及使用web技术实现自动添加事件的优势。 ... [详细]
  • 本文介绍了在使用Python中的aiohttp模块模拟服务器时出现的连接失败问题,并提供了相应的解决方法。文章中详细说明了出错的代码以及相关的软件版本和环境信息,同时也提到了相关的警告信息和函数的替代方案。通过阅读本文,读者可以了解到如何解决Python连接服务器失败的问题,并对aiohttp模块有更深入的了解。 ... [详细]
  • 本文讨论了在shiro java配置中加入Shiro listener后启动失败的问题。作者引入了一系列jar包,并在web.xml中配置了相关内容,但启动后却无法正常运行。文章提供了具体引入的jar包和web.xml的配置内容,并指出可能的错误原因。该问题可能与jar包版本不兼容、web.xml配置错误等有关。 ... [详细]
  • 目录浏览漏洞与目录遍历漏洞的危害及修复方法
    本文讨论了目录浏览漏洞与目录遍历漏洞的危害,包括网站结构暴露、隐秘文件访问等。同时介绍了检测方法,如使用漏洞扫描器和搜索关键词。最后提供了针对常见中间件的修复方式,包括关闭目录浏览功能。对于保护网站安全具有一定的参考价值。 ... [详细]
  • GetWindowLong函数
    今天在看一个代码里头写了GetWindowLong(hwnd,0),我当时就有点费解,靠,上网搜索函数原型说明,死活找不到第 ... [详细]
  • PHP图片截取方法及应用实例
    本文介绍了使用PHP动态切割JPEG图片的方法,并提供了应用实例,包括截取视频图、提取文章内容中的图片地址、裁切图片等问题。详细介绍了相关的PHP函数和参数的使用,以及图片切割的具体步骤。同时,还提供了一些注意事项和优化建议。通过本文的学习,读者可以掌握PHP图片截取的技巧,实现自己的需求。 ... [详细]
  • Java序列化对象传给PHP的方法及原理解析
    本文介绍了Java序列化对象传给PHP的方法及原理,包括Java对象传递的方式、序列化的方式、PHP中的序列化用法介绍、Java是否能反序列化PHP的数据、Java序列化的原理以及解决Java序列化中的问题。同时还解释了序列化的概念和作用,以及代码执行序列化所需要的权限。最后指出,序列化会将对象实例的所有字段都进行序列化,使得数据能够被表示为实例的序列化数据,但只有能够解释该格式的代码才能够确定数据的内容。 ... [详细]
  • 本文介绍了Web学习历程记录中关于Tomcat的基本概念和配置。首先解释了Web静态Web资源和动态Web资源的概念,以及C/S架构和B/S架构的区别。然后介绍了常见的Web服务器,包括Weblogic、WebSphere和Tomcat。接着详细讲解了Tomcat的虚拟主机、web应用和虚拟路径映射的概念和配置过程。最后简要介绍了http协议的作用。本文内容详实,适合初学者了解Tomcat的基础知识。 ... [详细]
  • 本文介绍了南邮ctf-web的writeup,包括签到题和md5 collision。在CTF比赛和渗透测试中,可以通过查看源代码、代码注释、页面隐藏元素、超链接和HTTP响应头部来寻找flag或提示信息。利用PHP弱类型,可以发现md5('QNKCDZO')='0e830400451993494058024219903391'和md5('240610708')='0e462097431906509019562988736854'。 ... [详细]
  • 本文介绍了使用Spark实现低配版高斯朴素贝叶斯模型的原因和原理。随着数据量的增大,单机上运行高斯朴素贝叶斯模型会变得很慢,因此考虑使用Spark来加速运行。然而,Spark的MLlib并没有实现高斯朴素贝叶斯模型,因此需要自己动手实现。文章还介绍了朴素贝叶斯的原理和公式,并对具有多个特征和类别的模型进行了讨论。最后,作者总结了实现低配版高斯朴素贝叶斯模型的步骤。 ... [详细]
  • Activiti7流程定义开发笔记
    本文介绍了Activiti7流程定义的开发笔记,包括流程定义的概念、使用activiti-explorer和activiti-eclipse-designer进行建模的方式,以及生成流程图的方法。还介绍了流程定义部署的概念和步骤,包括将bpmn和png文件添加部署到activiti数据库中的方法,以及使用ZIP包进行部署的方式。同时还提到了activiti.cfg.xml文件的作用。 ... [详细]
  • 本文介绍了在RHEL 7中的系统日志管理和网络管理。系统日志管理包括rsyslog和systemd-journal两种日志服务,分别介绍了它们的特点、配置文件和日志查询方式。网络管理主要介绍了使用nmcli命令查看和配置网络接口的方法,包括查看网卡信息、添加、修改和删除配置文件等操作。 ... [详细]
  • 项目运行环境配置及可行性分析
    本文介绍了项目运行环境配置的要求,包括Jdk1.8、Tomcat7.0、Mysql、HBuilderX等工具的使用。同时对项目的技术可行性、操作可行性、经济可行性、时间可行性和法律可行性进行了分析。通过对数据库的设计和功能模块的设计,确保系统的完整性和安全性。在系统登录、系统功能模块、管理员功能模块等方面进行了详细的介绍和展示。最后提供了JAVA毕设帮助、指导、源码分享和调试部署的服务。 ... [详细]
  • 部署solr建立nutch索引
    2019独角兽企业重金招聘Python工程师标准接着上篇nutch1.4的部署应用,我们来部署一下solr,solr是对lucene进行了封装的企 ... [详细]
  • 一:什么是solrSolr是apache下的一个开源项目,使用Java基于lucene开发的全文搜索服务器;Lucene是一个开放源代 ... [详细]
author-avatar
手机用户2502897401
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有