热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

hadoop完全分布式搭建

原文链接:hadoop完全分布式搭建主机分配以及地址要求:角色主机名IP地址Namenodemaster192.168.222.201Datanodeslave

原文链接:hadoop完全分布式搭建

目录
  • 1.关闭防火墙 selinux (都要执行)
    • 1.1关闭防火墙
    • 1.2 关闭selinux
      • 1.2.1 临时关闭
      • 1.2.2永久关闭
  • 2. 添加IP与主机名的映射关系 ( 都要修改 )
    • 2.1. 修改主机名(都要修改)
  • 3.设置免密登录
    • 3.1方法一
    • 3.2方法二
  • 4.安装java环境 + 解压hadoop压缩包
    • 上传gz包,解压
  • 5.修改配置文件
    • 5.1 slaves 文件
    • 5.2 core-site.xml 文件
    • 5.3 hdfs-site.xml文件
    • 5.4 mapred-site.xml 文件
    • 5.5 yarn-site.xml文件
    • 5.6 hadoop-env.sh 文件
  • 6.设置环境变量
  • 7.另外两台环境
    • 7.1创建文件夹(另外两台)
    • 7.2发送文件给其他结点
    • 7.3刷新另外两台的环境
    • 7.4格式化namenode
    • 7.5启动HDFS
    • 7.6启动Yarn
    • 7.7jps结果
  • 8.操作
    • 8.1.使用CRT把本地计算机中的 email_log.txt ,上传到centos中
    • 8.2.创建文件夹,上传。
    • 8.3.计算文件email_log.txt 文件中每个数据出现的次数,保存到 /user/output 下。
    • 8.4.修改文件名字为 学号+姓名。


主机分配以及地址要求:

角色 主机名 IP地址
Namenode master 192.168.222.201
Datanode slave1 192.168.222.202
datanode slave2 192.168.222.203

要求:

  • 正确完成搭建
  • 将数据文件email_log.txt 传至HDFS系统的“/users”中
  • 计算文件email_log.txt 文件中每个数据出现的次数,将最终结果文件重命名为“学号+姓名”

1.关闭防火墙 selinux (都要执行)

1.1关闭防火墙

执行关闭命令: systemctl stop firewalld.service
执行开机禁用防火墙自启命令 : systemctl disable firewalld.service

1.2 关闭selinux

1.2.1 临时关闭

setenforce 0 :用于关闭selinux防火墙,但重启后失效。

setenforce 0
1.2.2永久关闭

修改selinux的配置文件,重启后生效。

打开 selinux 配置文件

vi /etc/selinux/config

修改 selinux 配置文件

将SELINUX=enforcing改为SELINUX=disabled,保存后退出

2. 添加IP与主机名的映射关系 ( 都要修改 )

2.1. 修改主机名(都要修改)

设定主机名与网卡启动、网关配置

vi /etc/sysconfig/network
[root@host1 ~]# cat /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=master

需要注意的是Hadoop的集群中的主机名不能有_ (下划线)。如果存在_会导致Hadoop集群无法找到这群主机,从而无法启动!

经过上面的修改,主机名称不会马上改变,必须重启才能生效。

[root@master hadoop]# cat /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain
192.168.222.201 master
192.168.222.202 slave1
192.168.222.203 slave2

改完主节点之后,可以将hosts文件直接传到其他两个节点。

scp /etc/hosts 192.168.222.202:/etc/hosts
scp /etc/hosts 192.168.222.203:/etc/hosts

3.设置免密登录

让Master能够通过SSH无密码登录各个Slave节点

如果修改过主机名,需要重新生成的新的公钥。

3.1方法一

rm -r ~/.ssh
ssh-keygen -t rsa
ssh-copy-id localhost
ssh-copy-id slave1
ssh-copy-id slave2

3.2方法二

在master上执行如下命令:

 cd ~/.ssh       # 如果没有该目录,先执行一次ssh localhost
 rm ./id_rsa*      # 删除之前生成的公匙(如果已经存在)
 ssh-keygen -t rsa    # 执行该命令后,遇到提示信息,一直按回车就可以
 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

接着将master中的id_rsa.pub文件复制到各个Slave节点中

 scp ~/.ssh/id_rsa.pub slave01:/root
 scp ~/.ssh/id_rsa.pub slave02:/root

在各个slave节点中执行如下命令:

 mkdir ~/.ssh    # 如果不存在该文件夹需先创建
 cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
 rm ~/id_rsa.pub  # 用完以后就可以删掉

在master中验证是否可以无密码登录,各个Slave节点。

ssh Slave01 #如果成功登录,则配置完成
ssh Slave02 #如果成功登录,则配置完成

4.安装java环境 + 解压hadoop压缩包

上传gz包,解压

mkdir -p /simple/soft
cd /simple
tar -zxvf /simple/soft/jdk-7u79-linux-x64.tar.gz
tar -zxvf /simple/soft/hadoop-2.4.1.tar.gz

5.修改配置文件

cd /simple/hadoop-2.4.1/etc/hadoop 

5.1 slaves 文件

将文件中原来的 localhost 删除,添加内容:

vi slaves
slave1
slave2

5.2 core-site.xml 文件

内容修改为:


    
    
        fs.defaultFS
        hdfs://master:9000
    

     
    
        hadoop.tmp.dir
        /simple/hadoop-2.4.1/tmp
        Abase for other temporary directories.
    

5.3 hdfs-site.xml文件

Hadoop的分布式文件系统HDFS一般采用冗余存储,一份文件通常保存3份副本,所以dfs.replication的值还是设置为3。 具体内容如下:


    
        
        dfs.namenode.secondary.http-address
        master:50090
    
    
        dfs.replication
        3
    
    
        dfs.namenode.name.dir
        /simple/hadoop-2.4.1/tmp/dfs/name
    
    
        dfs.datanode.data.dir
        /simple/hadoop-2.4.1/tmp/dfs/data
    

5.4 mapred-site.xml 文件

修改内容如下:


    
        mapreduce.framework.name
        yarn
    
    
        mapreduce.jobhistory.address
        master:10020
    
    
        mapreduce.jobhistory.webapp.address
        master:19888
    

5.5 yarn-site.xml文件

内容如下:


    
        yarn.resourcemanager.hostname
        master
    
    
        yarn.nodemanager.aux-services
        mapreduce_shuffle
    

5.6 hadoop-env.sh 文件

修改如下内容:

export JAVA_HOME=/simple/jdk1.7.0_79

# 可以不用
export HADOOP_HOME=/simple/hadoop-2.4.1/

6.设置环境变量

添加Hadoop、java的环境变量

vi /etc/profile
JAVA_HOME=/simple/jdk1.7.0_79
HADOOP_HOME=/simple/hadoop-2.4.1
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 

刷新环境配置:

source /etc/profile

java环境变量配置完成,测试环境变量是否生效。

echo $JAVA_HOME
java -version 

7.另外两台环境

7.1创建文件夹(另外两台)

mkdir /simple/

7.2发送文件给其他结点

   scp -r hadoop-2.4.1/ slave1:/simple
   scp -r hadoop-2.4.1/ slave2:/simple
   scp -r jdk1.7.0_79/ slave2:/simple
   scp -r jdk1.7.0_79/ slave1:/simple
   scp /etc/profile slave1:/etc/profile
   scp /etc/profile slave2:/etc/profile

7.3刷新另外两台的环境

source /etc/profile

7.4格式化namenode

hadoop namenode -format

7.5启动HDFS

start-dfs.sh

7.6启动Yarn

start-yarn.sh

7.7jps结果

master
2129 SecondaryNameNode
2530 Jps
1948 NameNode
2285 ResourceManager

slave1
1744 NodeManager
1841 Jps
1634 DataNode

slave2
1705 NodeManager
1803 Jps
1598 DataNode

打开浏览器输入 192.168.222.201:50070 与 192.168.222.201:8088 打开web验证页面。



8.操作

8.1.使用CRT把本地计算机中的 email_log.txt ,上传到centos中

8.2.创建文件夹,上传。

hdfs dfs -mkdir /users 
hdfs dfs -put /simple/email_log.txt /users 

8.3.计算文件email_log.txt 文件中每个数据出现的次数,保存到 /user/output 下。

hadoop jar /simple/hadoop-2.4.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.1.jar wordcount /users/email_log.txt /user/output
 hadoop fs -cat /user/output/part-r-00000 (查看文件内容,文件很长,可以按 CTRL+C 停止)

8.4.修改文件名字为 学号+姓名。

hdfs dfs mv /user/output/part-r-00000 /user/output/18305105+×××
hdfs dfs -ls /user/output (查看文件夹下文件)

打开网页端,可以查看文件,点击Download下载统计后的文件,如果无法使用slave打开从节点,可以在本地物理机hosts中添加(因为无法解析):

192.168.222.202 slave1

192.168.222.203 slave2

原文链接:hadoop完全分布式搭建


推荐阅读
  • 本文详细介绍了在不同操作系统中查找和设置网卡的方法,涵盖了Windows系统的具体步骤,并提供了关于网卡位置、无线网络设置及常见问题的解答。 ... [详细]
  • 历经三十年的开发,Mathematica 已成为技术计算领域的标杆,为全球的技术创新者、教育工作者、学生及其他用户提供了一个领先的计算平台。最新版本 Mathematica 12.3.1 增加了多项核心语言、数学计算、可视化和图形处理的新功能。 ... [详细]
  • 使用PHP实现网站访客计数器的完整指南
    本文详细介绍了如何利用PHP构建一个简易的网站访客统计系统。通过具体的代码示例和详细的解释,帮助开发者理解和实现这一功能,适用于初学者和有一定经验的开发人员。 ... [详细]
  • 本文介绍了解决在Windows操作系统或SQL Server Management Studio (SSMS) 中遇到的“microsoft.ACE.oledb.12.0”提供程序未注册问题的方法,特别针对Access Database Engine组件的安装。 ... [详细]
  • 远程过程调用(RPC)是一种允许客户端通过网络请求服务器执行特定功能的技术。它简化了分布式系统的交互,使开发者可以像调用本地函数一样调用远程服务,并获得返回结果。本文将深入探讨RPC的工作原理、发展历程及其在现代技术中的应用。 ... [详细]
  • 本文详细介绍了如何在PHP中进行数组删除、清空等操作,并提供了在Visual Studio Code中创建PHP文件的步骤。 ... [详细]
  • 使用Nginx反向代理实现多域名端口映射
    本文介绍如何通过配置本地hosts文件和Nginx反向代理,实现多个虚拟域名的端口映射,使用户可以通过标准HTTP端口80访问不同后端服务。 ... [详细]
  • 深入解析Serverless架构模式
    本文将详细介绍Serverless架构模式的核心概念、工作原理及其优势。通过对比传统架构,探讨Serverless如何简化应用开发与运维流程,并介绍当前主流的Serverless平台。 ... [详细]
  • 鼠标悬停出现提示信息怎么做
    概述–提示:指启示,提起注意或给予提醒和解释。在excel中会经常用到给某个格子增加提醒信息,比如金额提示输入数值或最大长度值等等。设置方式也有多种,简单的,仅为单元格插入批注就可 ... [详细]
  • 本文详细探讨了如何通过分析单个或多个线程在瓶颈情况下的表现,来了解处理器资源的消耗。无论是单进程还是多进程环境,监控关键指标如线程数量、占用时间及调度优先级等,有助于揭示潜在的性能问题。 ... [详细]
  • 使用Powershell Studio快速构建GUI应用程序
    本文介绍了如何利用Powershell Studio创建功能强大的可视化界面。相较于传统的开发工具,Powershell Studio提供了更为简便和高效的开发体验,尤其适合需要快速构建图形用户界面(GUI)的场景。 ... [详细]
  • 优化网页加载速度:JavaScript 实现图片延迟加载
    本文介绍如何使用 JavaScript 实现图片延迟加载,从而显著提升网页的加载速度和用户体验。 ... [详细]
  • 深入解析Spring启动过程
    本文详细介绍了Spring框架的启动流程,帮助开发者理解其内部机制。通过具体示例和代码片段,解释了Bean定义、工厂类、读取器以及条件评估等关键概念,使读者能够更全面地掌握Spring的初始化过程。 ... [详细]
  • 在尝试使用C# Windows Forms客户端通过SignalR连接到ASP.NET服务器时,遇到了内部服务器错误(500)。本文将详细探讨问题的原因及解决方案。 ... [详细]
  • 本文深入探讨了MySQL中常见的面试问题,包括事务隔离级别、存储引擎选择、索引结构及优化等关键知识点。通过详细解析,帮助读者在面对BAT等大厂面试时更加从容。 ... [详细]
author-avatar
灸灵侯嗒黍_147
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有