热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Hadoop——Hive简介和环境配置

一、Hive的简介和配置1.简介Hive是构建在Hadoop之上的数据操作平台lHive是一个SQL解析引擎,它将SQL转译成MapReduce作业,并
一、Hive的简介和配置

  1.简介

    Hive是构建在Hadoop之上的数据操作平台l Hive是一个SQL解析引擎,它将SQL转译成MapReduce作业,并在Hadoop上运行Hive表是HDFS的一个文件目录,一个表名对应一个目录名,如果存在分区表的话,则分区值对应子目录名。

  2.Hive的体系结构

    Hive作为Hadoop的数据仓库处理工具,它所有的数据都存储在Hadoop兼容的文件系统中。Hive在加载数据的过程中不会对数据进行任何的修改,只是将数据移动到HDFS中Hive设置的指定目录下,因此,Hive不支持对数据的改写和添加,所有的数据都是在加载的时候设定的,Hive的设计特点如下:

        1.支持索引,加快数据查询

         2.不同的存储类型,例如:纯文本文件、HBase中的文件

         3. 将元数据保存在关系型数据库中,减少了在查询中执行语义的检查时间

         4. 可以直接使用存储在Hadoop文件系统中的数据

         5. 内置大量的用户UDF来操作时间,字符串和其他数据挖掘工具,支持用户扩展UDF来完成内置函数无法完成的操作

         6.类SQL的查询方式,将SQL查询转换为MapReduce的job在Hadoop集群上执行

         7.编码与Hadoop同样采用UTF-8

                                 

     

  用户接口:

             ① CLI:CLI启动的时候,会同时启动一个Hive副本

             ② JDBC客户端:封装了Thrift,Java应用程序可以通过指定的主机和端口 连接到在另一个进程中的Hive服务

             ③ WEB接口:通过浏览器访问Hive服务

     Thrift服务器:

            ① 基于Socket通讯,支持跨语言。Hive的Thrift服务简化了在多编程语言 中运行Hive命令,绑定支持C++,JAVA,PHP和Ruby语言。

     解析器:

             ① 编译器:完成HQL语句的从词法分析、语法分析、编译优化以及执行计   划的生成。

          ② 优化器:是一个演化组件,当前它的规则是:列修剪,谓词下压

             ③ 执行器:会顺序执行所有的Job。如果Task链不存在依赖关系,可以采取   并发方式执行Job

     元数据库:

           ① Hive的数据由两部分组成:数据文件和元数据。元数据用于存放Hive库的基   础信息,它存储在关系型数据库中,如MySQL、Derby。元数据包括:数据库信息、表       的名字、表的列和分区及其属性,表的属性,表的数据所在目录等。

      Hadoop:

          ① Hive的数据文件存储在HDFS中,大部分的查询由MapReduce构成,不过对   于包含*的查询,比如select * from lbl不会生成MapReduce作业。

  3.Hive的运行机制

        ① 用户通过用户接口连接Hive,发布Hive SQL

              ② Hive解析查询并制定查询计划

              ③ Hive将查询转换为MapReduce作业

              ④ Hive在Hadoop上执行MapReduce作业

  4.Hive的优势   

    1. 解决了传统关系数据库在大数据处理上的瓶颈,适合大数据的批量处理

    2.充分利用集群的CPU计算资源、存储资源,实现并行计算

    3.Hive支持标准SQL语法,免去了编写MR程序的过程。提升开发效率

    4.具有良好的扩展性,拓展功能很方便

  5.Hive的缺点  

    1.Hive的HQL表达能力有限:有些复杂运算HQL不易表达

    2.Hive的效率低:Hive自动生成MR作业,通常不够智能;HQL调优困难,粒度较粗;可控性差

    3.针对Hive运行效率低下等问题,促使人们去寻找一种更快,更具交互性的分析框架。SparkSQL的出现则有效的提高了Sql在Hadoop上的分析效率

  6.Hive的配置(Lin集群)

   (1).Hive配置前的准备: 完整的hadoop集群; ssh免密登录;安装mysql数据库;安装java

    (2).下载Hive的tar包 下载地址:http://mirror.bit.edu.cn/apache/hive/

    (3).上传Hive到Linux系统上 #将压缩包解压到对应目录  tar -zxvf /usr/localhost/apache-hive-2.3.5-bin.tar.gz

     (4).#将解压的目录重命名为hive    mv apache-hive-2.3.5-bin/ hive     

    (5).#设置hive的环境的变量   vim /etc/profile

    (6).#编辑内容如下(在profile文件)

      export HIVE_HOME=/usr/local/hive  (这个路径是自己将解压后的包解压后的位置)

      export PATH=$PATH:$HIVE_HOME/bin

    (7.)#刷新文件(保存后)   source /etc/profile
    (8).#检查hive版本     hive --version
    (9).Hive的配置
      #切换到hive的配置文件目录
        cd /usr/local/hive/conf/
      #以模板复制一个hive-site.xml
        cp hive-default.xml.template hive-site.xml
      #编辑hive-site.xml文件
        vim hive-site.xml
      #将以下内容插入到hive-site.xml文件,其他内容替换
        
          javax.jdo.option.ConnectionUserName
          root
        

        
          javax.jdo.option.ConnectionPassword
          123456
        

        
          javax.jdo.option.ConnectionURL
          jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true
        

        
          javax.jdo.option.ConnectionDriverName
          com.mysql.jdbc.Driver
        

        
          
          hive.metastore.schema.verification
          false
        

    (9).接下来将mysql的数据库驱动包放置到hive下的lib目录中
        初始化Hive元数据
          schematool -dbType mysql -initSchema

    (10).beeline连接操作  (找到hadoop的路径在相应的文件下修改以下下文件)

          hdfs-site.xml文件
      
        dfs.webhdfs.enabled
        true
      

        core-site.xml文件
      
        hadoop.proxyuser.root.hosts
        *
      

      
        hadoop.proxyuser.root.groups
        *
      

   (11).使用scp命令发送到slave1与slave2两台节点上,

      scp hdfs-site.xml core-site.xml root@slave1:/usr/local/hadoop-2.8.0/etc/hadoop/
      scp hdfs-site.xml core-site.xml root@slave2:/usr/local/hadoop-2.8.0/etc/hadoop/
   (12).hdfs namenode -format 重启服务 格式化namenode节点 (利用dbvis操作hive)
      ------------------------hiveserver2打开服务
        hiveserver2
      ------------------------beeline连接
        beeline
        !connect jdbc:hive2://master:10000
        ------------------------安装dbvis

   (13).注意事项

      在格式化hadoop集群时 从起hadoop会发现dataName没有启动成功

      解决办法: 进入hadoop的安装路径 找到 etc/hadoop 查看hadoop的tmp文件路径然后进入

                  

       进入红色圈中的文件夹

     

       复制标红的哪一行代码 到从节点的相同目录文件下 覆盖原有的一行

     

      从起集群即可解决

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

转:https://www.cnblogs.com/wuxuewei/p/11465825.html



推荐阅读
  • 大数据领域的职业路径与角色解析
    本文将深入探讨大数据领域的各种职业和工作角色,帮助读者全面了解大数据行业的需求、市场趋势,以及从入门到高级专业人士的职业发展路径。文章还将详细介绍不同公司对大数据人才的需求,并解析各岗位的具体职责、所需技能和经验。 ... [详细]
  • 简化报表生成:EasyReport工具的全面解析
    本文详细介绍了EasyReport,一个易于使用的开源Web报表工具。该工具支持Hadoop、HBase及多种关系型数据库,能够将SQL查询结果转换为HTML表格,并提供Excel导出、图表显示和表头冻结等功能。 ... [详细]
  • 本文详细分析了JSP(JavaServer Pages)技术的主要优点和缺点,帮助开发者更好地理解其适用场景及潜在挑战。JSP作为一种服务器端技术,广泛应用于Web开发中。 ... [详细]
  • Hadoop发行版本选择指南:技术解析与应用实践
    本文详细介绍了Hadoop的不同发行版本及其特点,帮助读者根据实际需求选择最合适的Hadoop版本。内容涵盖Apache Hadoop、Cloudera CDH等主流版本的特性及应用场景。 ... [详细]
  • 全面解析运维监控:白盒与黑盒监控及四大黄金指标
    本文深入探讨了白盒和黑盒监控的概念,以及它们在系统监控中的应用。通过详细分析基础监控和业务监控的不同采集方法,结合四个黄金指标的解读,帮助读者更好地理解和实施有效的监控策略。 ... [详细]
  • 本文详细介绍了如何在Android 4.4及以上版本中配置WebView以实现内容的自动高度调整和屏幕适配,确保中文显示正常,并提供代码示例。 ... [详细]
  • MapReduce原理是怎么剖析的
    这期内容当中小编将会给大家带来有关MapReduce原理是怎么剖析的,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。1 ... [详细]
  • 在CentOS上构建Ntopng实时网络流量监控平台
    本文详细介绍了如何在CentOS操作系统上安装和配置Ntopng,一个强大的网络流量监控工具。Ntopng能够提供实时的网络流量分析,并通过Web界面展示详细的流量报告。 ... [详细]
  • 1.3数据库系统结构及组成(三级模式结构)
    文章目录1.3.1数据库系统结构一、数据库系统模式的概念二、数据库系统的三级模式结构三、数据库的二级映像功能与数据独立性1.3.2数据库系统的体系结构一、DBS体系结构的组成二、D ... [详细]
  • 本文详细介绍了 Apache ZooKeeper 的 FileTxnLog 类中的 setPreallocSize 方法,并提供了多个实际应用中的代码示例。通过这些示例,读者可以更好地理解如何在不同场景下合理设置日志文件的预分配大小。 ... [详细]
  • 深入浅出:Hadoop架构详解
    Hadoop作为大数据处理的核心技术,包含了一系列组件如HDFS(分布式文件系统)、YARN(资源管理框架)和MapReduce(并行计算模型)。本文将通过实例解析Hadoop的工作原理及其优势。 ... [详细]
  • 初探Hadoop:第一章概览
    本文深入探讨了《Hadoop》第一章的内容,重点介绍了Hadoop的基本概念及其如何解决大数据处理中的关键挑战。 ... [详细]
  • Hadoop MapReduce 实战案例:手机流量使用统计分析
    本文通过一个具体的Hadoop MapReduce案例,详细介绍了如何利用MapReduce框架来统计和分析手机用户的流量使用情况,包括上行和下行流量的计算以及总流量的汇总。 ... [详细]
  • 流处理中的计数挑战与解决方案
    本文探讨了在流处理中进行计数的各种技术和挑战,并基于作者在2016年圣何塞举行的Hadoop World大会上的演讲进行了深入分析。文章不仅介绍了传统批处理和Lambda架构的局限性,还详细探讨了流处理架构的优势及其在现代大数据应用中的重要作用。 ... [详细]
  • 本文介绍如何通过整合SparkSQL与Hive来构建高效的用户画像环境,提高数据处理速度和查询效率。 ... [详细]
author-avatar
蟹子的宿命
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有