作者:米五仔8 | 来源:互联网 | 2023-09-08 08:50
问题描述做大数据存储实验的时候用hbase的shell命令结果出现报错,Connectionclosed查看日志发现报错服务不存在最终解决方法排查一大堆,最后发现是jdk版本的问题
问题描述
做大数据存储实验的时候用hbase的shell命令结果出现报错,Connection closed
![在这里插入图片描述](https://img.php1.cn/3cd4a/1eebe/cd5/dc7ef30f57b727c7.jpeg)
查看日志发现报错服务不存在
![在这里插入图片描述](https://img.php1.cn/3cd4a/1eebe/cd5/0a0ce631ec450943.webp?,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODc2NTk1,size_17,color_FFFFFF,t_70,g_se,x_16)
最终解决方法
排查一大堆,最后发现是jdk版本的问题,我用的java-17.0.1版本太高了,最后换成jdk-8u331-linux-x64.tar.gz就解决了
我的版本分别是
hadoop 3.2.2
hbase 2.3.6
java 1.8.0
附上hadoop、hbase、java搭配表
![在这里插入图片描述](https://img.php1.cn/3cd4a/1eebe/cd5/bcafc120671304eb.webp?,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODc2NTk1,size_20,color_FFFFFF,t_70,g_se,x_16)
![在这里插入图片描述](https://img.php1.cn/3cd4a/1eebe/cd5/60405fda58cd0acd.webp?,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODc2NTk1,size_10,color_FFFFFF,t_70,g_se,x_16)
解决步骤
1 清空hadoop的临时文件
先关闭hbase和hadoop进程
stop-all.sh
查看hdfs-site.xml
![在这里插入图片描述](https://img.php1.cn/3cd4a/1eebe/cd5/e88efe5b0a13a7fa.webp?,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAd2VpeGluXzQ4ODc2NTk1,size_14,color_FFFFFF,t_70,g_se,x_16)
把这两个文件夹中的文件全部删除(name文件夹同理)
![在这里插入图片描述](https://img.php1.cn/3cd4a/1eebe/cd5/8be1ccb5166feb93.webp)
重新执行hadoop格式化
![在这里插入图片描述](https://img.php1.cn/3cd4a/1eebe/cd5/fb32005f2115b419.webp)
2 把java换成指定版本(别忘了在环境变量中改java文件夹名字)
我这里用的是1.8.0_331
java -version
![在这里插入图片描述](https://img.php1.cn/3cd4a/1e618/bdf/129913486c37ddf6.jpeg)
3 重启电脑,启动ssh,hadoop,hbase
service ssh start
start-dfs.sh
start-hbase.sh
4 进入hbase shell,发现成功
![在这里插入图片描述](https://img.php1.cn/3cd4a/1eebe/cd5/2fdc212433a29829.png)
总结
搞了一天才搞好,以后做实验一定要跟着老师的版本来,焯!!