热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

centosx64搭建hadoop2.4.1HA

HadoopHA的实现方式上图大致架构包括:1、利用共享存储来在两个NN间同步edits信息。以前的HDFS是sharenothingbutNN,现在NN又sharestorage

Hadoop  HA的实现方式


,

上图大致架构包括:

1、  利用共享存储来在两个NN间同步edits信息。
以前的HDFSshare nothing but NN,现在NNshare storage,这样其实是转移了单点故障的位置,但中高端的存储设备内部都有各种RAID以及冗余硬件包括电源以及网卡等,比服务器的可靠性还是略有提高。通过NN内部每次元数据变动后的flush操作,加上NFSclose-to-open,数据的一致性得到了保证。

2、DataNode同时向两个NN汇报块信息。
这是让Standby NN保持集群最新状态的必需步骤。

3、用于监视和控制NN进程的FailoverController进程
显然,我们不能在NN进程内进行心跳等信息同步,最简单的原因,一次FullGC就可以让NN挂起十几分钟,所以,必须要有一个独立的短小精悍的watchdog来专门负责监控。这也是一个松耦合的设计,便于扩展或更改,目前版本里是用ZooKeeper(以下简称ZK)来做同步锁,但用户可以方便的把这个ZooKeeper FailoverController(以下简称ZKFC)替换为其他的HA方案或leader选举方案。

4、  隔离(Fencing)),防止脑裂),就是保证在任何时候只有一个主NN,包括三个方面:

a)      共享存储fencing,确保只有一个NN可以写入edits

b)      客户端fencing,确保只有一个NN可以响应客户端的请求。

c)      DataNode fencing,确保只有一个NN可以向DN下发命令,譬如删除块,复制块,等等。

部署环境介绍

系统环境:   centos6.4 x86_64

            Hadoop2.4.1

            Jdk 1.7.0

hadoop环境:5台vmware虚拟机

            Namenode1 192.168.1.10 zkfc

            Namenode2 192.168.1.11 zkfc

            Datanode1 192.168.1.12 Zookeeper

            Datanode2 192.168.1.13 Zookeeper

            Datanode3 192.168.1.14 Zookeeper

安装配置jdk

#tar -xvf jdk-7u60-linux-x64.tar.gz
#mv jdk1.7.0_60 /usr

/etc/profile最后加入

export JAVA_HOME=/usr/jdk1.7.0_60
export JAVA_OPTS="-Xms1024m-Xmx1024m"
export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATH
export PATH=.:$PATH:$JAVA_HOME/bin

# source /etc/profile

# java -version

java version "1.7.0_60"
Java(TM) SE Runtime Environment (build 1.7.0_60-b19)
Java HotSpot(TM) 64-Bit Server VM (build 24.60-b09,mixed mode)


配置系统信息

/etc/hosts  (所有机子上一样)

192.168.1.10 namenode1
192.168.1.11 namenode2
192.168.1.12 datanode1
192.168.1.13 datanode2
192.168.1.14 datanode3

添加ssh密钥认证,使hadoop所有几点间可以互相访问

# useradd hadoop

# passwd hadoop

# su – hadoop

$ ssh-keygen

$ ssh-copy-id -iid_rsa.pub namenode2

$ ssh-copy-id -iid_rsa.pub datanode1

$ ssh-copy-id -iid_rsa.pub datanode2

$ ssh-copy-id -iid_rsa.pub datanode3

Zookeeper安装配置

Zookeeper是google的chubby的开源实现,是一个高效、可靠地协同工作系统。在此我们使用zookeeper监控实现namenode的故障自动切换。我们把zookeeper服务端程序安装在3台DN上,NN1和NN2上运行zkfc进程。

1、下载zookeeper-3.4.6.tar.gz

2、将tar包解压到指定目录

tar zxvfzookeeper-3.4.6.tar.gz

3、修改zookeeper配置, 将zookeeper安装目录下conf/zoo_sample.cfg重命名为zoo.cfg, 修改其中的内容:

# The number of milliseconds of each tick
tickTime=2000   #服务器与客户端之间交互的基本时间单元(ms)
# The number of ticks that the initial 
# synchronization phase can take
initLimit=10  #zookeeper所能接受的客户端数量
# The number of ticks that can pass between 
# sending a request and getting an acknowledgement
syncLimit=5  #服务器和客户端之间请求和应答之间的时间间隔
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just 
# example sakes.
dataDir=/home/hadoop/zookeeper #保证zookeeper数据,日志的路径
# the port at which the clients will connect
clientPort=2181  #客户端与zookeeper相互交互的端口
server.1= datanode1:2888:3888
server.2= datanode2:2888:3888
server.3= datanode3:2888:3888
#server.A=B:C:D  其中A是一个数字,代表这是第几号服务器;B是服务器的IP地址;C表示服务器与群集中的“领导者”交换信息的端口;当领导者失效后,D表示用来执行选举时服务器相互通信的端口。
#
# Be sure to read the maintenance section of the 
# administrator guide before turning on autopurge.
#
#http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1

4、在配置的dataDir目录下创建一个myid文件,里面写入一个0-255之间的一个随意数字,每个zookeeper上这个文件的数字要是不一样的,这些数字应该是从1开始,依次写每个服务器。

5、分别启动所有的zookeeper

bin/zkServer.sh start

启动进程:QuorumPeerMain

6、使用客户端连接zookeeper测试是否成功

bin/zkCli.sh -server ip地址:clientPort

Hadoop安装配置

注:x64系统下不能直接下载编译好的二进制包,官网上的二进制包是32环境下的,会出现无法加载本地块的情况,在官网下载源码包自己手动编译。


1、下载hadoop-2.4.1-src.tar.gz

2、编译过程略,完成后在hadoop-2.4.1-src/hadoop-dist/target目录下取包:

hadoop-2.4.1.tar.gz

3、解压hadoop-2.4.1.tar.gz 到目录/home/hadoop

tar -xvf hadoop-2.4.1.tar.gz -C /home/hadoop

4、修改环境变量:

vi /etc/profile

exportHADOOP_HOME=/home/hadoop/hadoop
exportHADOOP_COMMON_HOME=$HADOOP_HOME
exportHADOOP_HDFS_HOME=$HADOOP_HOME
exportHADOOP_MAPRED_HOME=$HADOOP_HOME
exportHADOOP_YARN_HOME=$HADOOP_HOME
exportHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=.:$PATH:$JAVA_HOME/bin:/$HADOOP_HOME/bin:/$HADOOP_HOME/sbin


5、 修改hadoop安装目录下etc/hadoop/hadoop-env.sh 文件末尾添加java环境变量

exportJAVA_HOME=/usr/jdk1.7.0_60

6、修改hadoop安装目录下etc/hadoop/core-site.xml如下:



     fs.defaultFS
     hdfs://mycluster


    ha.zookeeper.quorum
     datanode1:2181, datanode2:2181,datanode3:2181


    hadoop.security.authorization
    false

7、  修改hadoop安装目录下etc/hadoop/core-site.xml如下:



    dfs.nameservices
    mycluster


    dfs.namenode.name.dir
    /opt/name


    dfs.ha.namenodes.mycluster
    nn1,nn2 


    dfs.namenode.rpc-address.mycluster.nn1
namenode1:9000


    dfs.namenode.rpc-address.mycluster.nn2
    namenode2:9000


    dfs.namenode.http-address.mycluster.nn1
    namenode1:50070


    dfs.namenode.http-address.mycluster.nn2
    namenode2:50070


    dfs.namenode.shared.edits.dir
    /opt/nameshare


    dfs.client.failover.proxy.provider.mycluster
    org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider


    dfs.ha.fencing.methods
    sshfence


    dfs.ha.fencing.ssh.private-key-files
    /home/hadoop/.ssh/id_rsa


    dfs.ha.automatic-failover.enabled
    true


    ha.zookeeper.quorum
     datanode1:2181, datanode2:2181,datanode3:2181


    dfs.data.dir
    /opt/sdb/data


    dfs.permissions
    false

8、  修改hadoop安装目录下etc/hadoop/slave如下:

datanode1
datanode2
datanode3

9、在NN上配置nfs共享目录

nn1nn2任意一个作为server,另一个为client

Server端

# rpm -qa |grep nfs

nfs-utils-lib-1.1.5-6.el6.x86_64

nfs-utils-1.2.3-39.el6_5.3.x86_64

如果没有需要安装

# yum -y install nfs-utils

Nfs里会有两个主程序rpcbind 和 nfs-utils (在 CentOS 5.x 以前这个软件称为 portmap,在 CentOS 6.x 之后才称为 rpcbind 的!)

# /etc/init.d/portmap start
# /etc/init.d/nfs start
# chkconfig --level 35 portmap on
# chkconfig --level 35 nfs on
# mkdir /opt/nameshare
# cat /etc/exports
/opt/nameshare     192.168.1.10/24(rw,no_root_squash,async)  #红色表示允许挂载的ip
# exportfs–v

10、在NN2上挂载NFS目录

Client 端

# showmount -e 192.168.1.10 #红色表示nfs服务器ip
# mkdir /opt/nameshare
# chmod 600 /opt/nameshare
# mount 192.168.1.10:/opt/nameshare /opt/nameshare

df –h 可以查看到挂载信息

设置开机自动挂载,添加下边这行到/etc/fstab

192.168.1.10:/opt/namshare /opt/nameshare     nfs     defaults        0 0
# mount –a

11、在NN上设置nfs共享目录所属权限给用户hadoop

chown -R hadoop.hadoop /opt/nameshare

12、分别在3个DN上建立数据目录

mkdir -p /opt/sdb/data
chown -R hadoop.hadoop /opt/sdb

13、在NN和NN1上建立目录

mkdir /opt/name
chown -R hadoop.hadoop /opt/name

14、复制NN上配置好的hadoop目录到另外4个节点

scp -r /home/hadoop/hadoop-2.4.1 namenode2:/home/hadoop
scp -r /home/hadoop/hadoop-2.4.1 datanode1:/home/hadoop
scp -r /home/hadoop/hadoop-2.4.1 datanode2:/home/hadoop
scp -r /home/hadoop/hadoop-2.4.1 datanode3:/home/hadoop

15、格式化namenode,首先在NN上执行:

hadoop  namenode  -format –clusterid  mysluster

16、格式化完成后,把NN节点上/opt/name目录下生成的文件完全拷贝到NN1节              

点的/opt/name目录里。

cd /opt/name
scp -r * namenode2:/opt/name

17、格式化zfkc,在zookeeper客户端NN、NN1上执行

bin/hdfs zkfc –formatZK

18、启动hadoop分布式系统

sbin/start-dfs.sh

启动成功后NN和NN1上启动进程:

NameNode

DFSZKFailoverController

DN上启动进程:

DataNode

QuorumPeerMain

19、通过web查看hdfs启动情况

NN1   http://192.168.1.10:50070

NN2  http://192.168.1.11:50070

,

,

上图可看出两个namenode一主一备都启动成功。


20、HDFS(HA)的管理

使用如下命令设置Active 节点 (手动方式)

bin/hdfs haadmin –DFSHAadmin –transitionToActive nn1

如果让nn2 成为变为active nn1 变为standby ,则

bin/hdfs haadmin -DFSHAadmin -failover nn1 nn2

如果失败(is not ready to become active) 则

bin/hdfs haadmin -DFSHAadmin -failover --forceactive nn1 nn2

具体参照bin/hdfs haadmin命令


21、验证高可用是否成功

当前NN1处于Active状态,手动停掉NN1上的namenode进程

hadoop-daemon.sh stop namenode

再次查看NN1和NN2的状态,可以看到NN2变为Active。

手动重启启动NN1上的namenode进程后,发现NN上的现在为Standby状态,高可用成功。


随后会附上hadoop2.4.1 x86_64环境下编译完成的二进制文件。

本文出自 “央了个样” 博客,请务必保留此出处http://yayang.blog.51cto.com/826316/1533379

centos x64搭建 hadoop2.4.1 HA,,

centos x64搭建 hadoop2.4.1 HA


推荐阅读
  • 国内BI工具迎战国际巨头Tableau,稳步崛起
    尽管商业智能(BI)工具在中国的普及程度尚不及国际市场,但近年来,随着本土企业的持续创新和市场推广,国内主流BI工具正逐渐崭露头角。面对国际品牌如Tableau的强大竞争,国内BI工具通过不断优化产品和技术,赢得了越来越多用户的认可。 ... [详细]
  • 深入理解OAuth认证机制
    本文介绍了OAuth认证协议的核心概念及其工作原理。OAuth是一种开放标准,旨在为第三方应用提供安全的用户资源访问授权,同时确保用户的账户信息(如用户名和密码)不会暴露给第三方。 ... [详细]
  • 2023 ARM嵌入式系统全国技术巡讲旨在分享ARM公司在半导体知识产权(IP)领域的最新进展。作为全球领先的IP提供商,ARM在嵌入式处理器市场占据主导地位,其产品广泛应用于90%以上的嵌入式设备中。此次巡讲将邀请来自ARM、飞思卡尔以及华清远见教育集团的行业专家,共同探讨当前嵌入式系统的前沿技术和应用。 ... [详细]
  • 深入理解 Oracle 存储函数:计算员工年收入
    本文介绍如何使用 Oracle 存储函数查询特定员工的年收入。我们将详细解释存储函数的创建过程,并提供完整的代码示例。 ... [详细]
  • 本文总结了2018年的关键成就,包括职业变动、购车、考取驾照等重要事件,并分享了读书、工作、家庭和朋友方面的感悟。同时,展望2019年,制定了健康、软实力提升和技术学习的具体目标。 ... [详细]
  • 在计算机技术的学习道路上,51CTO学院以其专业性和专注度给我留下了深刻印象。从2012年接触计算机到2014年开始系统学习网络技术和安全领域,51CTO学院始终是我信赖的学习平台。 ... [详细]
  • CSS 布局:液态三栏混合宽度布局
    本文介绍了如何使用 CSS 实现液态的三栏布局,其中各栏具有不同的宽度设置。通过调整容器和内容区域的属性,可以实现灵活且响应式的网页设计。 ... [详细]
  • Linux 系统启动故障排除指南:MBR 和 GRUB 问题
    本文详细介绍了 Linux 系统启动过程中常见的 MBR 扇区和 GRUB 引导程序故障及其解决方案,涵盖从备份、模拟故障到恢复的具体步骤。 ... [详细]
  • 本文介绍了一款用于自动化部署 Linux 服务的 Bash 脚本。该脚本不仅涵盖了基本的文件复制和目录创建,还处理了系统服务的配置和启动,确保在多种 Linux 发行版上都能顺利运行。 ... [详细]
  • 几何画板展示电场线与等势面的交互关系
    几何画板是一款功能强大的物理教学软件,具备丰富的绘图和度量工具。它不仅能够模拟物理实验过程,还能通过定量分析揭示物理现象背后的规律,尤其适用于难以在实际实验中展示的内容。本文将介绍如何使用几何画板演示电场线与等势面之间的关系。 ... [详细]
  • 本文介绍如何通过Windows批处理脚本定期检查并重启Java应用程序,确保其持续稳定运行。脚本每30分钟检查一次,并在需要时重启Java程序。同时,它会将任务结果发送到Redis。 ... [详细]
  • MySQL中枚举类型的所有可能值获取方法
    本文介绍了一种在MySQL数据库中查询枚举(ENUM)类型字段所有可能取值的方法,帮助开发者更好地理解和利用这一数据类型。 ... [详细]
  • 本文介绍如何在应用程序中使用文本输入框创建密码输入框,并通过设置掩码来隐藏用户输入的内容。我们将详细解释代码实现,并提供专业的补充说明。 ... [详细]
  • 本文介绍如何通过SQL查询从JDE(JD Edwards)系统中提取所有字典数据,涵盖关键表的关联和字段选择。具体包括F0004和F0005系列表的数据提取方法。 ... [详细]
  • 本文详细介绍了如何通过命令行启动MySQL服务,包括打开命令提示符窗口、进入MySQL的bin目录、输入正确的连接命令以及注意事项。文中还提供了更多相关命令的资源链接。 ... [详细]
author-avatar
活跃的爱味儿县_454
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有