热门标签 | HotTags
当前位置:  开发笔记 > 运维 > 正文

Hadoop系列之Hive(数据仓库)安装配置

Hadoop系列之Hive(数据仓库)安装配置1.在NameNode安装cdrootsofttarzxvfapache-hive-0.13.1-bin.tar.gz

 Hadoop系列之Hive(数据仓库)安装配置
1.在NameNode安装
  cd /root/soft
  tar zxvf apache-hive-0.13.1-bin.tar.gz
  mv apache-hive-0.13.1-bin /usr/local/hadoop/hive
2. 配置环境变量(每个节点都需要增加)
 打开/etc/profile
 #添加以下内容:
 export HIVE_HOME=/usr/local/hadoop/hive
 export PATH=$HIVE_HOME/bin:$PATH
 #环境变量生效
 source /etc/profile
3.安装mysql数据库环境
 请参照http://azhuang.blog.51cto.com/9176790/1551549
 数据库安装成功后,一定要建立号权限及创建hive数据库。操作如下
 grant all privileges on hive.* to hive@'192.168.3.%' identified by '123';
 create database hive character set latin1;  #UTF-8编码hive会报错,所以需要修改编码为latin1
4. 配置Hive
 cd /usr/local/hadoop/hive/conf/
 cp hive-default.xml.template hive-site.xml
 #vim hive-site.xml(修改之间配置)

     
        javax.jdo.option.ConnectionURL
        jdbc:mysql://192.168.3.10:3306/hive?characterEncoding=latin1
    

    
        javax.jdo.option.ConnectionDriverName
        com.mysql.jdbc.Driver
    

    
        javax.jdo.option.ConnectionUserName
        hive
    

    
        javax.jdo.option.ConnectionPassword
        123
    

 

 #以上四项分别是:
 数据库连接,数据库驱动名,用户名,密码。
5.把mySQL的JDBC驱动包复制到Hive的lib目录下
  cp /root/soft/mysql-connector-java-commercial-5.1.30-bin.jar /usr/local/hadoop/hive/lib/
6.复制Hive到所有DataNode节点
  scp -r /usr/local/hadoop/hive root@192.168.3.11:/usr/local/hadoop/
  scp -r /usr/local/hadoop/hive root@192.168.3.12:/usr/local/hadoop/
7.简单测试
//查看当前数据表
hive> show tables;
OK
Time taken: 1.069 seconds
//从本地文件系统中导入数据到Hive表
#创建student.txt测试文本,字段之间用tab键分割
 [root@hdfs-master soft]# cat /root/soft/student.txt
1    aa    10    121221
2    bb    20    0990
3    cc    30    120120
#创建student测试表
hive> create table student(id int, name string, age int, tel string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'  STORED AS TEXTFILE;
OK
Time taken: 0.043 seconds
#再次查看当前数据表及结构
hive> show tables;
OK
student
hive> desc student;
OK
id                      int                                         
name                    string                                      
age                     int                                         
tel                     string                                      
Time taken: 0.103 seconds, Fetched: 4 row(s)
#把/root/soft/student.txt本地记录导入到student表
hive> load data local inpath '/root/soft/student.txt'  into table student;
Copying data from file:/root/soft/student.txt
Copying file: file:/root/soft/student.txt
Loading data to table default.student
Table default.student stats: [numFiles=1, numRows=0, totalSize=43, rawDataSize=0]
OK
Time taken: 0.376 seconds
#查看student表,如果有记录表示本地插入数据成功.
hive> select * from student;                                             
OK
1    aa    10    121221
2    bb    20    0990
3    cc    30    120120
Time taken: 0.066 seconds, Fetched: 3 row(s)
//HDFS上导入数据到Hive表
#上传本地文件到hdfs
[root@hdfs-master soft]# hdfs dfs -put /root/soft/student.txt /hive
[root@hdfs-master soft]# hdfs dfs -cat /hive/student.txt
1    aa    10    121221
2    bb    20    0990
3    cc    30    120120
#从hdfs导入到hive数据
hive> load data inpath '/hive/student.txt' into table student;
Loading data to table default.student
Table default.student stats: [numFiles=2, numRows=0, totalSize=86, rawDataSize=0]
OK
Time taken: 1.389 seconds
hive> select * from student;                                  
OK
1    aa    10    121221
2    bb    20    0990
3    cc    30    120120
1    aa    10    121221
2    bb    20    0990
3    cc    30    120120
Time taken: 0.049 seconds, Fetched: 6 row(s)

本文出自 “成都@阿状” 博客,请务必保留此出处http://azhuang.blog.51cto.com/9176790/1553272


推荐阅读
  • 本文探讨了Hive中内部表和外部表的区别及其在HDFS上的路径映射,详细解释了两者的创建、加载及删除操作,并提供了查看表详细信息的方法。通过对比这两种表类型,帮助读者理解如何更好地管理和保护数据。 ... [详细]
  • 本文详细分析了Hive在启动过程中遇到的权限拒绝错误,并提供了多种解决方案,包括调整文件权限、用户组设置以及环境变量配置等。 ... [详细]
  • Hadoop发行版本选择指南:技术解析与应用实践
    本文详细介绍了Hadoop的不同发行版本及其特点,帮助读者根据实际需求选择最合适的Hadoop版本。内容涵盖Apache Hadoop、Cloudera CDH等主流版本的特性及应用场景。 ... [详细]
  • 本文探讨了如何在Hive(基于Hadoop)环境中编写类似SQL的语句,以去除字段中的空格。特别是在处理邮政编码等数据时,去除特定位置的空格是常见的需求。 ... [详细]
  • Hadoop入门与核心组件详解
    本文详细介绍了Hadoop的基础知识及其核心组件,包括HDFS、MapReduce和YARN。通过本文,读者可以全面了解Hadoop的生态系统及应用场景。 ... [详细]
  • 解决JAX-WS动态客户端工厂弃用问题并迁移到XFire
    在处理Java项目中的JAR包冲突时,我们遇到了JaxWsDynamicClientFactory被弃用的问题,并成功将其迁移到org.codehaus.xfire.client。本文详细介绍了这一过程及解决方案。 ... [详细]
  • HBase运维工具全解析
    本文深入探讨了HBase常用的运维工具,详细介绍了每种工具的功能、使用场景及操作示例。对于HBase的开发人员和运维工程师来说,这些工具是日常管理和故障排查的重要手段。 ... [详细]
  • 本文详细介绍了 Flink 和 YARN 的交互机制。YARN 是 Hadoop 生态系统中的资源管理组件,类似于 Spark on YARN 的配置方式。我们将基于官方文档,深入探讨如何在 YARN 上部署和运行 Flink 任务。 ... [详细]
  • 本文详细介绍了 Java 中的 org.apache.hadoop.registry.client.impl.zk.ZKPathDumper 类,提供了丰富的代码示例和使用指南。通过这些示例,读者可以更好地理解如何在实际项目中利用 ZKPathDumper 类进行注册表树的转储操作。 ... [详细]
  • 本文详细探讨了 org.apache.hadoop.ha.HAServiceTarget 类中的 checkFencingConfigured 方法,包括其功能、应用场景及代码示例。通过实际代码片段,帮助开发者更好地理解和使用该方法。 ... [详细]
  • 简化报表生成:EasyReport工具的全面解析
    本文详细介绍了EasyReport,一个易于使用的开源Web报表工具。该工具支持Hadoop、HBase及多种关系型数据库,能够将SQL查询结果转换为HTML表格,并提供Excel导出、图表显示和表头冻结等功能。 ... [详细]
  • 本文详细介绍如何使用 Apache Spark 执行基本任务,包括启动 Spark Shell、运行示例程序以及编写简单的 WordCount 程序。同时提供了参数配置的注意事项和优化建议。 ... [详细]
  • PHP 5.5.0rc1 发布:深入解析 Zend OPcache
    2013年5月9日,PHP官方发布了PHP 5.5.0rc1和PHP 5.4.15正式版,这两个版本均支持64位环境。本文将详细介绍Zend OPcache的功能及其在Windows环境下的配置与测试。 ... [详细]
  • 本文详细介绍了如何在ECharts中使用线性渐变色,通过echarts.graphic.LinearGradient方法实现。文章不仅提供了完整的代码示例,还解释了各个参数的具体含义及其应用场景。 ... [详细]
  • 在成功安装和测试MySQL及Apache之后,接下来的步骤是安装PHP。为了确保安全性和配置的一致性,建议在安装PHP前先停止MySQL和Apache服务,并将MySQL集成到PHP中。 ... [详细]
author-avatar
PHP_小楚
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有