热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

centos7安装Hadoop+hbase+hive步骤

2019独角兽企业重金招聘Python工程师标准centos7安装Hadoophbasehive步骤一、IP、DNS、主机名linux静态IP、DNS、主机名配置二、Hado

2019独角兽企业重金招聘Python工程师标准>>> hot3.png

centos7安装Hadoop+hbase+hive步骤

一、IP、DNS、主机名

linux 静态IP、DNS、主机名配置

二、Hadoop

1. IP分配

2. 安装jdk8(四台)

yum list java*
yum install -y java-1.8.0-openjdk-devel.x86_64

默认jre jdk 安装路径是/usr/lib/jvm下面

3. 配置jdk环境变量(四台)

vim /etc/profileexport JAVA_HOME=/usr/lib/jvm/java
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/jre/lib/rt.jar
export PATH=$PATH:$JAVA_HOME/bin

使得配置生效

. /etc/profile

查看变量

echo $JAVA_HOME

输出 /usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.161-0.b14.el7_4.x86_64

4. 安装Hadoop

创建文件夹(四台) mkdir /lp mkdir /lp/hadoop

复制hadoop安装包到/tmp(以下开始,操作只在主节点)

解压:

tar -xzvf /tmp/hadoop-3.1.2.tar.gz
mv hadoop-3.1.2/ /lp/hadoop/

etc/hadoop/hadoop-env.sh 添加如下内容

export JAVA_HOME=/usr/lib/jvm/java/
export HDFS_NAMENODE_USER="root"
export HDFS_DATANODE_USER="root"
export HDFS_SECONDARYNAMENODE_USER="root"
export YARN_RESOURCEMANAGER_USER="root"
export YARN_NODEMANAGER_USER="root"

修改etc/hadoop/core-site.xml,把配置改成:

fs.defaultFShdfs://192.168.1.213:9001io.file.buffer.size131072

修改etc/hadoop/hdfs-site.xml,把配置改成:

dfs.namenode.name.dir/lp/hadoop/hdfs/name/dfs.blocksize268435456dfs.namenode.handler.count 100dfs.namenode.http-address192.168.1.213:8305dfs.namenode.secondary.http-address192.168.1.214:8310dfs.datanode.data.dir/lp/hadoop/hdfs/data/dfs.replication1

etc/hadoop/yarn-site.xml,把配置改成:


yarn.resourcemanager.hostname192.168.1.213yarn.resourcemanager.webapp.address192.168.1.213:8320yarn.nodemanager.aux-servicesmapreduce_shuffleyarn.nodemanager.aux-services.mapreduce.shuffle.classorg.apache.hadoop.mapred.ShuffleHandleryarn.log-aggregation-enabletrueyarn.log-aggregation.retain-seconds864000yarn.log-aggregation.retain-check-interval-seconds86400yarn.nodemanager.remote-app-log-dir/lp/hadoop/YarnApp/Logsyarn.log.server.urlhttp://192.168.1.213:8325/jobhistory/logs/yarn.nodemanager.local-dirs/lp/hadoop/YarnApp/nodemanageryarn.scheduler.maximum-allocation-mb5000yarn.scheduler.minimum-allocation-mb1024yarn.nodemanager.vmem-pmem-ratio4.1yarn.nodemanager.vmem-check-enabledfalse

etc/hadoop/mapred-site.xml,内容改为如下:

mapreduce.framework.nameyarnyarn.app.mapreduce.am.staging-dir/lp/hadoop/YarnApp/tmp/hadoop-yarn/stagingmapreduce.jobhistory.address192.168.1.213:8330mapreduce.jobhistory.webapp.address192.168.1.213:8331mapreduce.jobhistory.done-dir${yarn.app.mapreduce.am.staging-dir}/history/done
mapreduce.jobhistory.intermediate-done-dir${yarn.app.mapreduce.am.staging-dir}/history/done_intermediatemapreduce.jobhistory.joblist.cache.size1000mapreduce.tasktracker.map.tasks.maximum8mapreduce.tasktracker.reduce.tasks.maximum8mapreduce.jobtracker.maxtasks.perjob5

修改etc/hadoop/workers

vim etc/hadoop/workershadoop3
hadoop4

压缩配置好的hadoop文件夹

tar -czvf hadoop.tar.gz /lp/hadoop/hadoop-3.1.2/

拷贝到其余节点:

scp hadoop.tar.gz root@192.168.1.214:/

解压删除:

tar -xzvf hadoop.tar.gz
rm –rf hadoop.tar.gz

5.配置Hadoop环境变量(四台)

vim /etc/profile.d/hadoop-3.1.2.shexport HADOOP_HOME="/lp/hadoop/hadoop-3.1.2"
export PATH="$HADOOP_HOME/bin:$PATH"
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoopsource /etc/profile

配置hosts(四台)

vim /etc/hosts192.168.1.213 hadoop1
192.168.1.214 hadoop2
192.168.1.215 hadoop3
192.168.1.216 hadoop4

免密码登录自身(四台)

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys

master免密码登录worker【单台,只需在namenode1上执行】

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop2
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop3
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop4

格式化HDFS [只有首次部署才可使用]【谨慎操作,只在master上操作】

/lp/hadoop/hadoop-3.1.2/bin/hdfs namenode -format myClusterName

开启hadoop服务 【只在master上操作】

/lp/hadoop/hadoop-3.1.2/sbin/start-dfs.sh
/lp/hadoop/hadoop-3.1.2/sbin/start-yarn.sh

web地址

Hdfs页面:
主:192.168.1.213:8305
从:192.168.1.214:8310
Yarn页面:
192.168.1.213:8320

三、Hbase

基于以上的hadoop配置好各个节点。并且使用hbase自带的Zookeeper

分配

解压对应的hbase

tar -xzvf /tmp/hbase-2.1.2-bin.tar.gz
mv hbase-2.1.2/ /lp/hadoop/

修改/hbase-2.1.2/conf/hbase-site.xml

hbase.cluster.distributedtrue

hbase.rootdirhdfs://192.168.1.213:9001/hbase

hbase.zookeeper.quorumhadoop1,hadoop3

hbase.masterpsyDebian:60000

hbase.master.maxclockskew180000

hbase.wal.providerfilesystem

hbase.unsafe.stream.capability.enforcefalse

修改/hbase-2.1.2/conf/hbase-env.sh

export JAVA_HOME=/usr/lib/jvm/java/
export HBASE_CLASSPATH=/lp/hadoop/hbase-2.1.2/conf
export HBASE_MANAGES_ZK=true

修改/hbase-2.1.2/conf/regionservers

hadoop1
hadoop3

把/lp/hadoop/hbase-2.1.2/lib/client-facing-thirdparty目录下的htrace-core-3.1.0-incubating.jar 复制到/lp/hadoop/hbase-2.1.2/lib

cp /hbase-2.1.2/lib/client-facing-thirdparty/htrace-core-3.1.0-incubating.jar /hbase-2.1.2/lib

压缩配置好的hbase-2.1.2文件夹

tar -czvf hbase-2.1.2.tar.gz hadoop-3.1.2/

拷贝到hadoop3节点:

scp hbase-2.1.2.tar.gz root@hadoop3:/lp/hadoop

解压删除

tar -xzvf hbase-2.1.2.tar.gz
rm –rf hbase-2.1.2.tar.gz

启动

./bin/start-hbase.sh

进入shell

./bin/hbase shell

web页面访问

192.168.1.213:16010

四、Hive

基于以上配置把hive配置到hadoop1,mysql5.7安装到hadoop3

分配

解压对应的hive

tar -xzvf /tmp/apache-hive-3.1.1-bin.tar.gz
mv apache-hive-3.1.1-bin/ /lp/hadoop/

配置hive 进入apache-hive-3.1.1-bin/conf/目录 复制hive-env.sh.templatehive-env.sh

cp hive-env.sh.template hive-env.sh

编辑hive-env.sh

export HADOOP_HOME=/lp/hadoop/hadoop-3.1.2
export HIVE_CONF_DIR=/lp/hadoop/apache-hive-3.1.1-bin/conf
export HIVE_AUX_JARS_PATH=/lp/hadoop/apache-hive-3.1.1-bin/lib

复制hive-default.xml.templatehive-site.xml

cp hive-default.xml.template hive-site.xml

修改hive-site.xml

javax.jdo.option.ConnectionURLjdbc:mysql://hadoop3:3306/hive?createDatabaseIfNotExist=true&useSSL=false
javax.jdo.option.ConnectionDriverNamecom.mysql.jdbc.Driver
javax.jdo.option.ConnectionUserNamerootUsername to use against metastore database
javax.jdo.option.ConnectionPassword123456password to use against metastore database

其他服务可以通过thrift接入hive,可以加上是否需要验证的配置,此处设为NONE,暂时不需要验证

hive.server2.authenticationNONE

复制hive-exec-log4j2.properties.templatehive-exec-log4j2.properties

cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

复制hive-log4j2.properties.templatehive-log4j2.properties

cp hive-log4j2.properties.template hive-log4j2.properties

下载mysql驱动放入/home/hadoop/apache-hive-3.1.1-bin/lib包中

在hadoop3安装mysql5.7版本,并且把root设置为任意主机访问或者hadoop1主机访问

use mysql;
select host,user from user;
grant all privileges on *.* to root@'%' identified by "123456";
flush privileges;
select host,user from user;

初始化(第一次启动)

./schematool -initSchema -dbType mysql

启动

./hive
./hive --service hiveserver2

启动hiveserver2使其他服务可以通过thrift接入hive

Mysql数据库中会自动创建hive数据库

测试

beeline工具测试使用jdbc方式连接

./beeline -u jdbc:hive2://localhost:10000

端口号默认是10000

hiveserver2会启动一个WEB,端口号默认为10002,可以通过 http://192.168.1.213:10002/


转:https://my.oschina.net/lwenhao/blog/3025661



推荐阅读
  • 本文介绍了关于apache、phpmyadmin、mysql、php、emacs、path等知识点,以及如何搭建php环境。文章提供了详细的安装步骤和所需软件列表,希望能帮助读者解决与LAMP相关的技术问题。 ... [详细]
  • Linux如何安装Mongodb的详细步骤和注意事项
    本文介绍了Linux如何安装Mongodb的详细步骤和注意事项,同时介绍了Mongodb的特点和优势。Mongodb是一个开源的数据库,适用于各种规模的企业和各类应用程序。它具有灵活的数据模式和高性能的数据读写操作,能够提高企业的敏捷性和可扩展性。文章还提供了Mongodb的下载安装包地址。 ... [详细]
  • 一次上线事故,30岁+的程序员踩坑经验之谈
    本文主要介绍了一位30岁+的程序员在一次上线事故中踩坑的经验之谈。文章提到了在双十一活动期间,作为一个在线医疗项目,他们进行了优惠折扣活动的升级改造。然而,在上线前的最后一天,由于大量数据请求,导致部分接口出现问题。作者通过部署两台opentsdb来解决问题,但读数据的opentsdb仍然经常假死。作者只能查询最近24小时的数据。这次事故给他带来了很多教训和经验。 ... [详细]
  • 本文介绍了在sqoop1.4.*版本中,如何实现自定义分隔符的方法及步骤。通过修改sqoop生成的java文件,并重新编译,可以满足实际开发中对分隔符的需求。具体步骤包括修改java文件中的一行代码,重新编译所需的hadoop包等。详细步骤和编译方法在本文中都有详细说明。 ... [详细]
  • Hadoop2.6.0 + 云centos +伪分布式只谈部署
    3.0.3玩不好,现将2.6.0tar.gz上传到usr,chmod-Rhadoop:hadophadoop-2.6.0,rm掉3.0.32.在etcp ... [详细]
  • 1.脚本功能1)自动替换jar包中的配置文件。2)自动备份老版本的Jar包3)自动判断是初次启动还是更新服务2.脚本准备进入ho ... [详细]
  • Hadoop源码解析1Hadoop工程包架构解析
    1 Hadoop中各工程包依赖简述   Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。   GoogleCluster:ht ... [详细]
  • mapreduce源码分析总结
    这篇文章总结的非常到位,故而转之一MapReduce概述MapReduce是一个用于大规模数据处理的分布式计算模型,它最初是由Google工程师设计并实现的ÿ ... [详细]
  • 对于一般的扩展包,我们一般直接pipinstallxxx即可安装,但是unrar直接安装后,发现并不能通过Python程序实现解压的功能& ... [详细]
  • MySQL5.6.40在CentOS764下安装过程 ... [详细]
  • NFS文件共享系统
    1、概述:NFS(NetworkFileSystem)意为网络文件系统,它最大的功能就是可以通过网络,让不同的机器不同的操作系统可以共享 ... [详细]
  • MR程序的几种提交运行模式本地模型运行1在windows的eclipse里面直接运行main方法,就会将job提交给本地执行器localjobrunner执行-- ... [详细]
  •        在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下:       1、CentOS6.7下安装JDK,地址:http:b ... [详细]
  • 前言折腾了一段时间hadoop的部署管理,写下此系列博客记录一下。为了避免各位做部署这种重复性的劳动,我已经把部署的步骤写成脚本,各位只需要按着本文把脚本执行完,整个环境基本就部署 ... [详细]
  • MapReduce工作流程最详细解释
    MapReduce是我们再进行离线大数据处理的时候经常要使用的计算模型,MapReduce的计算过程被封装的很好,我们只用使用Map和Reduce函数,所以对其整体的计算过程不是太 ... [详细]
author-avatar
华东师大中北文艺部
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有