作者:陆寥频 | 来源:互联网 | 2023-08-04 15:52
资源准备准备4台Linux服务器要求:glibc版本2.14192.168.9.1192.168.9.2192.168.9.3192.168.9.4安装配置JDK1.7+(详细操
资源准备
- 准备4台 Linux 服务器要求:glibc 版本 >= 2.14
- 192.168.9.1
- 192.168.9.2
- 192.168.9.3
- 192.168.9.4
- 安装配置 JDK1.7+(详细操作)
- 下载:hadoop-2.6.4
服务器配置
- 4台服务器分别创建用户hadoop
root@XXX# useradd hadoop
root@XXX# echo ‘hadoop’ | passwd –stdin hadoop
- 4台服务器分别配置 hosts
root@XXX# vi /etc/hosts
添加内容如下:
192.168.9.1 master
192.168.9.2 secmaster
192.168.9.3 slave0
192.168.9.4 slave1
- master 主机免密码登陆其他主机配置
- 在各个主机上生成 SSH 密钥
hadoop@XXX$ ssh-keygen -t rsa -P ” -f ~/.ssh/id_rsa
- 在 master 主机上copy公钥
hadoop@192.168.9.1$ ssh-copy-id -i secmaster 输入密码:hadoop即copy公钥成功
hadoop@192.168.9.1$ ssh-copy-id -i slave0 输入密码:hadoop即copy公钥成功
hadoop@192.168.9.1$ ssh-copy-id -i slave1 输入密码:hadoop即copy公钥成功
- 测试ssh免登陆
在192.168.9.1主机上执行如下命令确保 master 可以实现对其他主机的免密码登陆,首次执行需要输入”yes” 确认
hadoop@192.168.9.1$ ssh secmaster
hadoop@192.168.9.1$ ssh slave0
hadoop@192.168.9.1$ ssh slave1
hadoop自身配置
- 在 master(192.168.9.1) 主机上解压 hadoop-2.6.4.tar.gz
hadoop@192.168.9.1$ tar xvf hadoop-2.6.4.tar.gz
- 配置 etc/hadoop/core-site.xml
fs.default.name
hdfs://master:9000
io.file.buffer.size
131072
hadoop.tmp.dir
/home/hadoop/tmp
hadoop.proxyuser.u0.hosts
*
hadoop.proxyuser.u0.groups
*
- 配置 etc/hadoop/hdfs-site.xml
dfs.replication
2
dfs.namenode.secondary.http-address
secmaster:9001
dfs.namenode.name.dir
file:/home/hadoop/dfs/name
dfs.datanode.data.dir
file:/home/hadoop/dfs/data
dfs.webhdfs.enabled
true
- 配置 etc/hadoop/mapred-site.xml
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
master:10020
mapreduce.jobhistory.webapp.address
master:19888
- 配置etc/hadoop/yarn-site.xml
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.address
master:8032
yarn.resourcemanager.scheduler.address
master:8030
yarn.resourcemanager.resource-tracker.address
master:8031
yarn.resourcemanager.admin.address
master:8033
yarn.resourcemanager.webapp.address
master:8088
Master向各个节点同步配置完毕后的 hadoop 工程
hadoop@192.168.9.1$ scp -r /home/hadoop/hadoop-2.6.4 hadoop@secmaster:/home/hadoop
hadoop@192.168.9.1$ scp -r /home/hadoop/hadoop-2.6.4 hadoop@slave0:/home/hadoop
hadoop@192.168.9.1$ scp -r /home/hadoop/hadoop-2.6.4 hadoop@slave1:/home/hadoop
格式化 namenode,启动 hadoop 所有组件
[hadoop@192.168.9.1hadoop2.6.4]$ bin/hadoop namenode -format
[hadoop@192.168.9.1hadoop2.6.4]$ sbin/start-all.sh
如果不出意外完全分布式的 hadoop cluster 已经运行起来了_