1.环境准备
jdk需要1.7以上版本64位.
创建hadoop用户.
在hadoop用户目录下解压安装包hadoop-2.7.2.tar.gz
2.配置免密码登录
生成公钥和私钥:ssh-keygen -t rsa
四次enter.
将公钥添加进公钥库:cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
修改authorized_keys权限:chmod 600 ~/.ssh/authorized_keys
验证:ssh localhost
将各节点中id_rsa.pub中的内容共同拷贝到authorized_keys,将authorized_keys覆盖各节点.
3.创建目录
mkdir -p ~/hadoop/dfs/name
mkdir -p ~/hadoop/dfs/data
mkdir -p ~/hadoop/tmp
4.修改配置文件
hadoop.tmp.dir
/home/wangkai/hadoop/tmp
fs.defaultFS
hdfs://centos7-1:9000
dfs.replication
3
dfs.namenode.name.dir
file:/home/wangkai/hadoop/dfs/name
dfs.datanode.data.dir
file:/home/wangkai/hadoop/dfs/data
mapreduce.framework.name
yarn
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.resourcemanager.hostname
192.168.163.101
注:不配置yarn.resourcemanager.hostname可能会导致从节点的nodemanager无法与主节点resourcemanager通信,默认为0.0.0.0,需要修改.
centos7-1
centos7-2
centos7-3
第一行添加
export JAVA_HOME=/usr/local/jdk1.7.0_79
第一行添加:
export JAVA_HOME=/usr/local/jdk1.7.0_79
5.修改系统文件(各节点)
文件末尾添加
192.168.163.101 centos7-1
192.168.163.102 centos7-2
192.168.163.103 centos7-3
文件末尾添加
export JAVA_HOME=/usr/local/jdk1.7.0_79
export HADOOP_HOME=/home/wangkai/hadoop
export CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source ~/.bashrc
6.启动
将Hadoop文件夹移动至各个节点
/home/wangkai/hadoop/dfs/name
/home/wangkai/hadoop/dfs/data
/home/wangkai/hadoop/tmp
执行格式化:hadoop namenode -format
执行start-dfs.sh
查看进程应显示:
NameNode
DataNode
SecondaryNameNode
浏览器访问:192.168.163.101:50070
注意:关闭防火墙
systemctl stop firewalld.service
或
systemctl disable firewalld.service
执行start-yarn.sh
查看进程应显示:
NodeManager
ResourceManager
浏览器访问: 192.168.163.101:8088
7.Hadoop及其生态的环境匹配
一个典型搭配
Hadoop 2.7.2,HBase 1.2.2 , Hive 2.1.0 ,Zookeeper 3.4.8 ,Sqoop 1.4.6 , Spark 2.0.2 ,Kafka 2.11-0.10.0.0等等
Hadoop2.7.2安装与集群搭建