作者:lajallan608 | 来源:互联网 | 2023-09-13 10:19
性能和可靠性—性能优化客户端优化:Scan、Get、列簇及列、禁止缓存指标说明Scanhbase.client.scanner.cachingGet建议使用批量Get列簇及列尽可能
性能和可靠性 — 性能优化
指标 | 说明 |
Scan | hbase.client.scanner.caching |
Get | 建议使用批量Get |
列簇及列 | 尽可能少的列簇,尽可能指定列查询 |
禁止缓存 | 加载大量数据时,建议禁止缓存防止 “挤压”热数据 |
1.Balancer:balance_switch|balancer,需要注意RIT问题
均衡最小值 = 总Region个数 / RegionServer个数 * 0.8
均衡最大值 = 总Region个数 / RegionServer个数 * 1.2
2.BlockCache:hbase.bucketcache.ioengine,优化GC,提高缓存命中率
hbase.bucketcache.ioengine = offheap
3.Compaction:保证本地性为1,空闲时段定时执行避免影响集群IO
hbase.regionserver.thread.compaction.large = 8
hbase.regionserver.thread.compaction.small = 5
性能和可靠性 — 可靠性保证
HBase不存在单点问题,可以做主备切换,保证集群的高可用性
数据迁移 — 跨集群迁移
这里采用distcp来进行跨集群数据迁移,具体命令如下:
hadoop distcp -Dmapreduce.job.queuename=queue_name
-update -skipcrccheck -m 120 hdfs://ip:port/hbase_path_old/tabname
/hbase_path_new/tabname
注意事项:
案例: Caused by: java.io.IOException: Mismatch in length of source
原因:HDFS中的文件没有关闭,处于写状态,而每次distcp时会校验文件
长度,如果文件处于未关闭状态,就会出现这类异常
解决方案:
检测文件状态,执行hdfs fsck [hdfs_file_path]|[hdfs://ip:port/path]
关闭该文件,执行hdfs debug recoverLease –path [hdfs_file_path],
重新进行数据迁移,执行hadoop distcp […]
注意事项:
数据迁移 — Hive数据迁移到HBase
案例:在集群A(不包含HBase),将集群A中的Hive数据迁移到集群B中的HBase
方案一:在集群A中生成HFile文件,然后使用distcp将HFile文件迁移到集群B,最后使用HBase的BulkLoad的方式将数据导入到HBase表,具体操作命令:
# 使用distcp命令迁移
hadoop distcp -Dmapreduce.job.queuename=queue_name
-update -skipcrccheck -m 120 hdfs://ip:port/hfile_path /hfile_path
# BulkLoad加载数据
hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
/hfile_path htable_name
方案二:使用API接口,直接通过BulkLoad的方式进行数据迁移,以应用程序的形
式来实现数据迁移的工作
如何保证HBase集群的高效及稳定 — 特殊处理
一般情况下,RIT都是瞬时的,但是有些情况会让其进入永久RIT状态,
永久RIT状态带来的不良后果就是管理员无法干预Region均衡操作,从
而影响集群的负载均衡。
案例一:在合并Region操作时,发现RIT一直显示MERGING_NEW状态,查看HBase JIRA发现这是触发了HBASE-17682的BUG,需要打补丁进行修复。
附上HBase应用与高可用实践PPT:
备注:历届HBase Meetup会议的PPT: http://hbase.group/slides/