热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

流式大数据计算实践(4)HBase安装

一、前言1、前面我们搭建好了高可用的Hadoop集群,本文正式开始搭建HBase2、HBase简介(1)Master节点负责管理数据&#x

一、前言

1、前面我们搭建好了高可用的Hadoop集群,本文正式开始搭建HBase

2、HBase简介

(1)Master节点负责管理数据,类似Hadoop里面的namenode,但是他只负责建表改表等操作,如果挂掉了也不会影响使用

(2)RegionServer节点负责存储数据,类似Hadoop里面的datanode,通过Zookeeper进行通信

(3)可以看出HBase实际上是基于HDFS的分布式数据库,但是单机模式下也可以直接用普通文件系统存储数据

二、HBase环境搭建

1、下载tar.gz包,并解压

tar zxvf /work/soft/installer/hbase-1.2.2-bin.tar.gz

2、由于HBase是依赖Zookeeper的,所以HBase自带Zookeeper,我们先从单机模式搭建开始学习,先把之前搭建的集群停掉

3、进入到HBase目录的conf/hbase-site.xml文件,配置HBase的目录,以下目录HBase会自动创建

vim /work/soft/hbase-1.2.2/conf/hbase-site.xmlhbase.rootdirfile:///work/hbase/roothbase.zookeeper.property.dataDir/work/hbase/zookeeper/data

4、启动HBase单机模式

/work/soft/hbase-1.2.2/bin/start-hbase.sh

5、通过jps查看进程是否存在

6、进入HBase的命令行

/work/soft/hbase-1.2.2/bin/hbase shell

7、我们尝试一下建表、插入数据、查询的操作,看到结果就说明单机模式成功搭建!

create 'testTable','testFamily'put 'testTable','row1','testFamily:name','jack'scan 'testTable'

8、接下来搭建分布式模式,先停掉单机模式

/work/soft/hbase-1.2.2/bin/stop-hbase.sh

9、然后删除刚刚自动创建的目录

rm -rf /work/hbase/root
rm -rf /work/hbase/zookeeper/data

10、由于HBase默认自动开启自带的Zookeeper,所以我们设置为不开启,用自己的Zookeeper

vim /work/soft/hbase-1.2.2/conf/hbase-env.shexport HBASE_MANAGES_ZK=false

11、手动创建日志文件夹

mkdir /work/hbase/logs

12、配置hbase-env.sh

(1)配置Hadoop的配置文件目录

(2)配置日志文件夹的目录(也就是刚刚手动创建的那个目录)

vim /work/soft/hbase-1.2.2/conf/hbase-env.shexport HBASE_CLASSPATH=/work/soft/hadoop-2.6.4/etc/hadoop
export HBASE_LOG_DIR=/work/hbase/logs

13、配置hbase-site.xml

(1)配置我们的Hadoop集群id

(2)开启分布式开关

(3)配置Zookeeper集群

vim /work/soft/hbase-1.2.2/conf/hbase-site.xmlhbase.rootdirhdfs://stormcluster/hbasehbase.cluster.distributedtruehbase.zookeeper.quorumstorm1,storm2hbase.zookeeper.property.dataDir/work/hbase/zookeeper/data

14、启动HBase集群

(1)首先启动我们的Hadoop集群

(2)启动Master

/work/soft/hbase-1.2.2/bin/hbase-daemon.sh start master

(3)用jps命令查看进程是否存在

(4)启动RegionServer

/work/soft/hbase-1.2.2/bin/hbase-daemon.sh start regionserver

(5)用jps命令查看进程是否存在

(6)通过16010端口访问HBase的控制台,可以看到刚刚开启的regionserver,到此HBase搭建成功!

 


转载于:https://www.cnblogs.com/orange911/p/9995690.html


推荐阅读
  • 在搭建Hadoop集群以处理大规模数据存储和频繁读取需求的过程中,经常会遇到各种配置难题。本文总结了作者在实际部署中遇到的典型问题,并提供了详细的解决方案,帮助读者避免常见的配置陷阱。通过这些经验分享,希望读者能够更加顺利地完成Hadoop集群的搭建和配置。 ... [详细]
  • Hadoop 2.6 主要由 HDFS 和 YARN 两大部分组成,其中 YARN 包含了运行在 ResourceManager 的 JVM 中的组件以及在 NodeManager 中运行的部分。本文深入探讨了 Hadoop 2.6 日志文件的解析方法,并详细介绍了 MapReduce 日志管理的最佳实践,旨在帮助用户更好地理解和优化日志处理流程,提高系统运维效率。 ... [详细]
  • 构建高可用性Spark分布式集群:大数据环境下的最佳实践
    在构建高可用性的Spark分布式集群过程中,确保所有节点之间的无密码登录是至关重要的一步。通过在每个节点上生成SSH密钥对(使用 `ssh-keygen -t rsa` 命令并保持默认设置),可以实现这一目标。此外,还需将生成的公钥分发到所有节点的 `~/.ssh/authorized_keys` 文件中,以确保节点间的无缝通信。为了进一步提升集群的稳定性和性能,建议采用负载均衡和故障恢复机制,并定期进行系统监控和维护。 ... [详细]
  • HBase在金融大数据迁移中的应用与挑战
    随着最后一台设备的下线,标志着超过10PB的HBase数据迁移项目顺利完成。目前,新的集群已在新机房稳定运行超过两个月,监控数据显示,新集群的查询响应时间显著降低,系统稳定性大幅提升。此外,数据消费的波动也变得更加平滑,整体性能得到了显著优化。 ... [详细]
  • 大数据领域的职业路径与角色解析
    本文将深入探讨大数据领域的各种职业和工作角色,帮助读者全面了解大数据行业的需求、市场趋势,以及从入门到高级专业人士的职业发展路径。文章还将详细介绍不同公司对大数据人才的需求,并解析各岗位的具体职责、所需技能和经验。 ... [详细]
  • 本文详细介绍了HDFS的基础知识及其数据读写机制。首先,文章阐述了HDFS的架构,包括其核心组件及其角色和功能。特别地,对NameNode进行了深入解析,指出其主要负责在内存中存储元数据、目录结构以及文件块的映射关系,并通过持久化方案确保数据的可靠性和高可用性。此外,还探讨了DataNode的角色及其在数据存储和读取过程中的关键作用。 ... [详细]
  • HBase 数据复制与灾备同步策略
    本文探讨了HBase在企业级应用中的数据复制与灾备同步解决方案,包括存量数据迁移及增量数据实时同步的方法。 ... [详细]
  • 本文介绍如何通过整合SparkSQL与Hive来构建高效的用户画像环境,提高数据处理速度和查询效率。 ... [详细]
  • Spark与HBase结合处理大规模流量数据结构设计
    本文将详细介绍如何利用Spark和HBase进行大规模流量数据的分析与处理,包括数据结构的设计和优化方法。 ... [详细]
  • 从0到1搭建大数据平台
    从0到1搭建大数据平台 ... [详细]
  • 本文探讨了 Kafka 集群的高效部署与优化策略。首先介绍了 Kafka 的下载与安装步骤,包括从官方网站获取最新版本的压缩包并进行解压。随后详细讨论了集群配置的最佳实践,涵盖节点选择、网络优化和性能调优等方面,旨在提升系统的稳定性和处理能力。此外,还提供了常见的故障排查方法和监控方案,帮助运维人员更好地管理和维护 Kafka 集群。 ... [详细]
  • 第二章:Kafka基础入门与核心概念解析
    本章节主要介绍了Kafka的基本概念及其核心特性。Kafka是一种分布式消息发布和订阅系统,以其卓越的性能和高吞吐量而著称。最初,Kafka被设计用于LinkedIn的活动流和运营数据处理,旨在高效地管理和传输大规模的数据流。这些数据主要包括用户活动记录、系统日志和其他实时信息。通过深入解析Kafka的设计原理和应用场景,读者将能够更好地理解其在现代大数据架构中的重要地位。 ... [详细]
  • 技术日志:深入探讨Spark Streaming与Spark SQL的融合应用
    技术日志:深入探讨Spark Streaming与Spark SQL的融合应用 ... [详细]
  • 在Linux系统中,原本已安装了多个版本的Python 2,并且还安装了Anaconda,其中包含了Python 3。本文详细介绍了如何通过配置环境变量,使系统默认使用指定版本的Python,以便在不同版本之间轻松切换。此外,文章还提供了具体的实践步骤和注意事项,帮助用户高效地管理和使用不同版本的Python环境。 ... [详细]
  • 通过马老师的视频学习了Java中的容器相关内容,包括Collection、Set、List、Map及其常见实现类,并深入了解了这些容器的基本操作方法。 ... [详细]
author-avatar
蕊蕊宝宝妈妈_534
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有