热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

开发笔记:CDHHadoop+HBaseHA部署详解

本文由编程笔记#小编为大家整理,主要介绍了CDHHadoop+HBaseHA部署详解相关的知识,希望对你有一定的参考价值。
本文由编程笔记#小编为大家整理,主要介绍了CDH Hadoop + HBase HA 部署详解相关的知识,希望对你有一定的参考价值。



CDH 的部署和 Apache Hadoop 的部署是没有任何区别的。这里着重的是 HA的部署,需要特殊说明的是NameNode HA 需要依赖 Zookeeper
 



准备


Hosts文件配置:

CDH Hadoop + HBase HA 部署详解


各个节点服务情况

CDH Hadoop + HBase HA 部署详解


对几个新服务说明下: 



  • JournalNode 用于同步 NameNode 元数据,和 Zookeeper 一样需要 2N+1个节点存活集群才可用。


  • DFSZKFailoverController(ZKFC) 用于主备切换,类似 Keepalived 所扮演的角色。


 
NTP 服务
设置时区

CDH Hadoop + HBase HA 部署详解


配置NTP Server

CDH Hadoop + HBase HA 部署详解


启动并设置开机自启动

CDH Hadoop + HBase HA 部署详解


配置 NTP Client

CDH Hadoop + HBase HA 部署详解


启动并设置开机自启动

CDH Hadoop + HBase HA 部署详解


检查 NTP 同步

CDH Hadoop + HBase HA 部署详解


JDK
创建目录

CDH Hadoop + HBase HA 部署详解

创建运行账户

useradd -u 600 run

安装包
http://archive.cloudera.com/cdh5/cdh/5/

CDH Hadoop + HBase HA 部署详解




安装 Zookeeper


CDH Hadoop + HBase HA 部署详解

设置环境变量

CDH Hadoop + HBase HA 部署详解


删除无用文件

CDH Hadoop + HBase HA 部署详解


创建数据目录

CDH Hadoop + HBase HA 部署详解


配置

CDH Hadoop + HBase HA 部署详解


修改Zookeeper的日志打印方式,与日志路径设置
编辑

$ZOOKEEPER_HOME/bin/zkEnv.sh

在27行后加入两个变量

CDH Hadoop + HBase HA 部署详解


创建 myid文件

CDH Hadoop + HBase HA 部署详解


设置目录权限

chown -R run.run /data/{app,appData,logs}

启动、停止

CDH Hadoop + HBase HA 部署详解





安装 Hadoop


CDH Hadoop + HBase HA 部署详解


设置环境变量

CDH Hadoop + HBase HA 部署详解


删除无用文件

CDH Hadoop + HBase HA 部署详解


新建数据目录

mkdir -p /data/appData/hdfs/{name,edits,data,jn,tmp}

配置
切换到配置文件目录

cd $HADOOP_HOME/etc/hadoop

编辑 core-site.xml

CDH Hadoop + HBase HA 部署详解


编辑 hdfs-site.xml

CDH Hadoop + HBase HA 部署详解

CDH Hadoop + HBase HA 部署详解

CDH Hadoop + HBase HA 部署详解


小于5个DataNode建议添加如下配置

CDH Hadoop + HBase HA 部署详解


在 hadoop-env.sh 中添加如下变量

CDH Hadoop + HBase HA 部署详解


Heap 设置,单位 MB

export HADOOP_HEAPSIZE=1024

权限设置

chown -R run.run /data/{app,appData,logs}
chmod 777 /data/pid

格式化
格式化只需要执行一次,格式化之前启动Zookeeper
 
切换用户

su - run

启动所有 JournalNode

hadoop-daemon.sh start journalnode

格式化 Zookeeper(为 ZKFC 创建znode)

hdfs zkfc -formatZK

NameNode 主节点格式化并启动

hdfs namenode -format
hadoop-daemon.sh start namenode

NameNode 备节点同步数据并启动

hdfs namenode -bootstrapStandby
hadoop-daemon.sh start namenode

启动 ZKFC

hadoop-daemon.sh start zkfc

启动 DataNode

hadoop-daemon.sh start datanode

启动与停止
切换用户

su - run

集群批量启动
需要配置运行用户ssh-key免密码登录,与$HADOOP_HOME/etc/hadoop/slaves

# 启动
start-dfs.sh
# 停止
stop-dfs.sh

单服务启动停止
启动HDFS

hadoop-daemon.sh start journalnode
hadoop-daemon.sh start namenode
hadoop-daemon.sh start zkfc
hadoop-daemon.sh start datanode

停止HDFS

hadoop-daemon.sh stop datanode
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop journalnode
hadoop-daemon.sh stop zkfc


测试
HDFS HA 测试
打开 NameNode 状态页:
http://cdh-m1:50010
http://cdh-m2:50010 

在 Overview 后面能看见 active 或 standby,active 为当前 Master,停止 active 上的 NameNode,检查 standby是否为 active。
 
HDFS 测试

hadoop fs -mkdir /test
hadoop fs -put /etc/hosts /test
hadoop fs -ls /test

结果:

CDH Hadoop + HBase HA 部署详解


HDFS 管理命令

# 动态加载 hdfs-site.xml
hadoop dfsadmin -refreshNodes




HBase安装配置


cd /data/install
tar xf hbase-1.0.0-cdh5.4.5.tar.gz -C /data/app
cd /data/app
ln -s hbase-1.0.0-cdh5.4.5 hbase

设置环境变量

CDH Hadoop + HBase HA 部署详解


删除无用文件

CDH Hadoop + HBase HA 部署详解


配置
进入配置文件目录

cd $HBASE_HOME/conf

编辑 hbase-site.xml

CDH Hadoop + HBase HA 部署详解


在 hbase-env.sh 中添加如下变量



Heap 设置,单位 MB

export HBASE_HEAPSIZE=1024

可选设置 regionservers 中添加所有RegionServer主机名,用于集群批量启动、停止
 
启动与停止
切换用户

su - run

集群批量启动
需要配置运行用户ssh-key免密码登录,与$HBASE_HOME/conf/regionservers

# 启动
start-hbase.sh
# 停止
stop-hbase.sh

单服务启动停止
HMaster

# 启动
hbase-daemon.sh start master
# 停止
hbase-daemon.sh stop master

HRegionServer

# 启动
hbase-daemon.sh start regionserver
# 停止
hbase-daemon.sh stop regionserver


测试
HBase HA 测试
浏览器打开两个HMaster状态页:
http://cdh-m1:60010
http://cdh-m2:60010 

可以在Master后面看见其中一个主机名,Backup Masters中看见另一个。
停止当前Master,刷新另一个HMaster状态页会发现Master后面已经切换,HA成功。
 
HBase 测试
进入hbase shell 执行:

create 'users','user_id','address','info'
list
put 'users','anton','info:age','24'
get 'users','anton'
# 最终结果
COLUMN                     CELL
info:age                  timestamp=1465972035945, value=24
1 row(s) in 0.0170 seconds

清除测试数据:

disable 'users'
drop 'users'





微信扫一扫


推荐阅读
  • 从0到1搭建大数据平台
    从0到1搭建大数据平台 ... [详细]
  • HBase在金融大数据迁移中的应用与挑战
    随着最后一台设备的下线,标志着超过10PB的HBase数据迁移项目顺利完成。目前,新的集群已在新机房稳定运行超过两个月,监控数据显示,新集群的查询响应时间显著降低,系统稳定性大幅提升。此外,数据消费的波动也变得更加平滑,整体性能得到了显著优化。 ... [详细]
  • 前言折腾了一段时间hadoop的部署管理,写下此系列博客记录一下。为了避免各位做部署这种重复性的劳动,我已经把部署的步骤写成脚本,各位只需要按着本文把脚本执行完,整个环境基本就部署 ... [详细]
  • 深入解析Struts、Spring与Hibernate三大框架的面试要点与技巧 ... [详细]
  • Hadoop 2.6 主要由 HDFS 和 YARN 两大部分组成,其中 YARN 包含了运行在 ResourceManager 的 JVM 中的组件以及在 NodeManager 中运行的部分。本文深入探讨了 Hadoop 2.6 日志文件的解析方法,并详细介绍了 MapReduce 日志管理的最佳实践,旨在帮助用户更好地理解和优化日志处理流程,提高系统运维效率。 ... [详细]
  • 构建高可用性Spark分布式集群:大数据环境下的最佳实践
    在构建高可用性的Spark分布式集群过程中,确保所有节点之间的无密码登录是至关重要的一步。通过在每个节点上生成SSH密钥对(使用 `ssh-keygen -t rsa` 命令并保持默认设置),可以实现这一目标。此外,还需将生成的公钥分发到所有节点的 `~/.ssh/authorized_keys` 文件中,以确保节点间的无缝通信。为了进一步提升集群的稳定性和性能,建议采用负载均衡和故障恢复机制,并定期进行系统监控和维护。 ... [详细]
  • Hadoop + Spark安装(三) —— 调hadoop
    ***************************测试hadoop及问题跟进***************************执行以下语句报错datahadoop-2.9. ... [详细]
  • 本文介绍了 Go 语言中的高性能、可扩展、轻量级 Web 框架 Echo。Echo 框架简单易用,仅需几行代码即可启动一个高性能 HTTP 服务。 ... [详细]
  • HTTP(HyperTextTransferProtocol)是超文本传输协议的缩写,它用于传送www方式的数据。HTTP协议采用了请求响应模型。客服端向服务器发送一 ... [详细]
  • 基于iSCSI的SQL Server 2012群集测试(一)SQL群集安装
    一、测试需求介绍与准备公司计划服务器迁移过程计划同时上线SQLServer2012,引入SQLServer2012群集提高高可用性,需要对SQLServ ... [详细]
  • 本文回顾了作者初次接触Unicode编码时的经历,并详细探讨了ASCII、ANSI、GB2312、UNICODE以及UTF-8和UTF-16编码的区别和应用场景。通过实例分析,帮助读者更好地理解和使用这些编码。 ... [详细]
  • 本文详细介绍了 InfluxDB、collectd 和 Grafana 的安装与配置流程。首先,按照启动顺序依次安装并配置 InfluxDB、collectd 和 Grafana。InfluxDB 作为时序数据库,用于存储时间序列数据;collectd 负责数据的采集与传输;Grafana 则用于数据的可视化展示。文中提供了 collectd 的官方文档链接,便于用户参考和进一步了解其配置选项。通过本指南,读者可以轻松搭建一个高效的数据监控系统。 ... [详细]
  • 在 Linux 环境下,多线程编程是实现高效并发处理的重要技术。本文通过具体的实战案例,详细分析了多线程编程的关键技术和常见问题。文章首先介绍了多线程的基本概念和创建方法,然后通过实例代码展示了如何使用 pthreads 库进行线程同步和通信。此外,还探讨了多线程程序中的性能优化技巧和调试方法,为开发者提供了宝贵的实践经验。 ... [详细]
  • 在搭建Hadoop集群以处理大规模数据存储和频繁读取需求的过程中,经常会遇到各种配置难题。本文总结了作者在实际部署中遇到的典型问题,并提供了详细的解决方案,帮助读者避免常见的配置陷阱。通过这些经验分享,希望读者能够更加顺利地完成Hadoop集群的搭建和配置。 ... [详细]
  • 技术日志:深入探讨Spark Streaming与Spark SQL的融合应用
    技术日志:深入探讨Spark Streaming与Spark SQL的融合应用 ... [详细]
author-avatar
葬宝御用小奶瓶2004
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有