热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

HIVE简介与安装

基于hadoop的数据仓库工具,封装了mapreduce,大大简化了开发过程(简单来说,就是把sql变成了mapreduce程序)。!!!这里说的是hive-1.2.1,在2.几的

基于hadoop的数据仓库工具,封装了mapreduce,大大简化了开发过程(简单来说,就是把sql变成了mapreduce程序)。!!!这里说的是hive-1.2.1,在2.几的版本时不支持mapreduce了,支持spark。利用hdfs存储数据,利用mapreduce查询数据。
与传统关系型数据库的对比:

《HIVE简介与安装》 与RDBMS对比

数据库与数据仓库

目标目的组织方式都不同。
数据库,一般是关系型,支持在线联机业务。进行实时事务控制。数据库中有不止一张不同的业务表。而数据仓库存储的是历史的业务数据(即数据库中导出的历史数据),主要用于数据分析。一般是非关系型,是宽表,不在乎数据是否冗余,按照历史和主题来组织。分析的结果支持公司的运营,可以按照指标+维度(粒度)来产生报表,组织的模型有:星形模型,雪花模型。

hive的工作机制

如下图,当我们使用hive时写sql建表和数据库时,其实就是创建了/usr/hive/warehouse/下的目录,这些目录位置信息都由hive存到了另外的数据库(mysql等,hive自带的derby)中。当我们执行查找等操作时,hive中的compiler先解析sql语句(最难的部分),然后转换成mapreduce程序(hive里有mapreduce模板),由hive的jobrunner提交任务给yarn执行。基于mapreduce执行会比较慢,纯粹用来做离线数据分析。

《HIVE简介与安装》 hive的工作机制
《HIVE简介与安装》 架构图

hive安装

hive只在一个节点上安装即可。
1 上传解压hive的tar包
2 安装mysql

rpm -qa | mysql
rpm -e --nodeps mysql
yum list | grep mysql
yum install -y mysql-server mysql mysql-dev_
rpm -qi mysql -server(查看版本信息)
service mysqld start
chkconfig mysqld on(设置开机自启)
mysqladmin -u root password 'root'
cat /etc/my.cnf(查看主配置文件)
netstat -nltp(linux系统是否监听3306端口)

3 配置hive
不用提供的模板,直接来一个新的hive-site.xml

vi hive-site.xml


javax.jdo.option.ConnectionURL
jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true
JDBC connect string for a JDBC metastore


javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver
Driver class name for a JDBC metastore


javax.jdo.option.ConnectionUserName
root
username to use against metastore database


javax.jdo.option.ConnectionPassword
root
password to use against metastore database


4 启动hive
安装完成后,先将mysql连接jar包(没有可以到maven中央仓库下载)拷贝到$HIVE_HOME/lib目录下(ll my.* 查看是否成功)。
若果出现没有权限问题,在mysql授权:

mysql -u root -p
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
FLUSH PRIVILEGES;

启动:
hive 交互式shell:
bin/hive
hive启动时会找到hadoop的配置文件,加载hadoop所有的jar包到它的classpath,此时Jline包版本不同会报错。解决办法:
拷贝hive/lib中的jline.2.12.jar包替换/home/hadoop/apps/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar,即可正常启动。
hive命令
hive -e 'sql',从命令行执行指定hql
hive -f执行hql脚本
hive thrift服务:
启动thrift服务后,只要是符合thrift协议的客户端都可以连接。hive自带了一个客户端beeline

[hadoop@mini1 hive]$ cd bin/
[hadoop@mini1 bin]$ ./beeline
Beeline version 1.2.1 by Apache Hive
beeline> !connect jdbc:hive2://localhost:10000
Connecting to jdbc:hive2://localhost:10000
Enter username for jdbc:hive2://localhost:10000: hadoop(username默认hadoop,无密码)
Enter password for jdbc:hive2://localhost:10000:
Connected to: Apache Hive (version 1.2.1)
Driver: Hive JDBC (version 1.2.1)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://localhost:10000> showdatabases;

启动服务后转换为后台:nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err &
beeline也可以启动就连接:bin/beeline -u jdbc:hive2://mini1:10000 -n hadoop
5 简单操作:

hive>
hive>show databases;
hive>create database haha;
hive>use haha;
hive>create table t_1(id int,name string);##可以在mini:50070查看
vi t.dat并写入数据
hadoop fs -put t.dat /user/hive/warehouse/haha.db/t_1/
hive>select * from t_1;
hive> truncate table t_1;(清空表里的数据)
hive> drop table t_1;(删除表)

hive> use haha;
OK
Time taken: 0.101 seconds
hive> create table t_sz01(id int,name string)
> row format delimited
> fields terminated by ',';
OK
Time taken: 0.435 seconds
hive> show tables;
OK
t_sz01
Time taken: 0.096 seconds, Fetched: 1 row(s)
hadoop fs -put t.dat /user/hive/warehouse/haha.db/t_sz01
hive> select * from t_sz01;
OK
1 h
2 r
3 rg
4 qgqa
5 fdf
6 aff
Time taken: 0.322 seconds, Fetched: 6 row(s)
hive> select count(1) from t_sz01;
Query ID = hadoop_20170808175951_074dd63d-dc84-4125-9b15-2efb1462ca26
Total jobs = 1
Launching Job 1 out of 1
Number of reduce tasks determined at compile time: 1
In order to change the average load for a reducer (in bytes):
set hive.exec.reducers.bytes.per.reducer=
In order to limit the maximum number of reducers:
set hive.exec.reducers.max=
In order to set a constant number of reducers:
set mapreduce.job.reduces=
Job running in-process (local Hadoop)
2017-08-08 17:59:53,976 Stage-1 map = 0%, reduce = 0%
2017-08-08 17:59:55,995 Stage-1 map = 100%, reduce = 100%
Ended Job = job_local817039614_0001
MapReduce Jobs Launched:
Stage-Stage-1: HDFS Read: 128 HDFS Write: 0 SUCCESS
Total MapReduce CPU Time Spent: 0 msec
OK
6
Time taken: 4.726 seconds, Fetched: 1 row(s) #mapreduce可以在mini1:8088看见
hive> select id,name from t_sz01 where id>3;
hive> select id,name from t_sz01 where id>3 limit 2;#这两句没有转化为mapreduce,hive一个也做了很多优化
hive> select id,name from t_sz01 where id>3 order by name;#避免了写mapreduce的过程

hive的数据存储

Hive中所有的数据都存储在 HDFS 中,没有专门的数据存储格式(可支持Text,SequenceFile(前面两种是hadoop原生自带的),ParquetFile(面向列的,有表头),RCFILE等)只需要在创建表的时候告诉 Hive 数据中的列分隔符和行分隔符,Hive 就可以解析数据。Hive 中包含以下数据模型:DB、Table,External Table,Partition,Bucket。

  • db:在hdfs中表现为${hive.metastore.warehouse.dir}目录下一个文件夹
  • table:在hdfs中表现所属db目录下一个文件夹
  • external table:外部表, 与table类似,不过其数据存放位置可以在任意指定路径
    普通表: 删除表后, hdfs上的文件都删了
    External外部表删除后, hdfs上的文件没有删除, 只是把文件删除了
  • partition:在hdfs中表现为table目录下的子目录
  • bucket:桶, 在hdfs中表现为同一个表目录下根据hash散列(使得join操作效率变高)之后的多个文件, 会根据不同的文件把数据放到不同的文件中

推荐阅读
  • ZooKeeper 学习
    前言相信大家对ZooKeeper应该不算陌生。但是你真的了解ZooKeeper是个什么东西吗?如果别人面试官让你给他讲讲ZooKeeper是个什么东西, ... [详细]
  • 什么是大数据lambda架构
    一、什么是Lambda架构Lambda架构由Storm的作者[NathanMarz]提出,根据维基百科的定义,Lambda架构的设计是为了在处理大规模数 ... [详细]
  • Hadoop 源码学习笔记(4)Hdfs 数据读写流程分析
    Hdfs的数据模型在对读写流程进行分析之前,我们需要先对Hdfs的数据模型有一个简单的认知。数据模型如上图所示,在NameNode中有一个唯一的FSDirectory类负责维护文件 ... [详细]
  • 【转】腾讯分析系统架构解析
    TA(TencentAnalytics,腾讯分析)是一款面向第三方站长的免费网站分析系统,在数据稳定性、及时性方面广受站长好评,其秒级的实时数据更新频率也获得业界的认可。本文将从实 ... [详细]
  • 伸缩性|发生_分布式文件系统设计,该从哪些方面考虑?
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了分布式文件系统设计,该从哪些方面考虑?相关的知识,希望对你有一定的参考价值。点击上方关注“ ... [详细]
  • 本文_大数据之非常详细Sqoop安装和基本操作
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了大数据之非常详细Sqoop安装和基本操作相关的知识,希望对你有一定的参考价值。大数据大数据之 ... [详细]
  • 搭建Windows Server 2012 R2 IIS8.5+PHP(FastCGI)+MySQL环境的详细步骤
    本文详细介绍了搭建Windows Server 2012 R2 IIS8.5+PHP(FastCGI)+MySQL环境的步骤,包括环境说明、相关软件下载的地址以及所需的插件下载地址。 ... [详细]
  • 本文介绍了Redis的基础数据结构string的应用场景,并以面试的形式进行问答讲解,帮助读者更好地理解和应用Redis。同时,描述了一位面试者的心理状态和面试官的行为。 ... [详细]
  • 本文介绍了在mac环境下使用nginx配置nodejs代理服务器的步骤,包括安装nginx、创建目录和文件、配置代理的域名和日志记录等。 ... [详细]
  • 本文介绍了如何使用C#制作Java+Mysql+Tomcat环境安装程序,实现一键式安装。通过将JDK、Mysql、Tomcat三者制作成一个安装包,解决了客户在安装软件时的复杂配置和繁琐问题,便于管理软件版本和系统集成。具体步骤包括配置JDK环境变量和安装Mysql服务,其中使用了MySQL Server 5.5社区版和my.ini文件。安装方法为通过命令行将目录转到mysql的bin目录下,执行mysqld --install MySQL5命令。 ... [详细]
  • Hadoop源码解析1Hadoop工程包架构解析
    1 Hadoop中各工程包依赖简述   Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。   GoogleCluster:ht ... [详细]
  • Kylin 单节点安装
    软件环境Hadoop:2.7,3.1(sincev2.5)Hive:0.13-1.2.1HBase:1.1,2.0(sincev2.5)Spark(optional)2.3.0K ... [详细]
  • 前言折腾了一段时间hadoop的部署管理,写下此系列博客记录一下。为了避免各位做部署这种重复性的劳动,我已经把部署的步骤写成脚本,各位只需要按着本文把脚本执行完,整个环境基本就部署 ... [详细]
  • 基于,docker,快速,部署,多,需求,spark ... [详细]
  • 既然HDFS是存取数据的分布式文件系统,那么对HDFS的操作,就是文件系统的基本操作,比如文件的创建、修改、删除、修改权限等,文件夹的创建、删除、重命名等。对HDFS的操作命令类似于Linux的she ... [详细]
author-avatar
weneay
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有