热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

分布式部署_Hadoop分布式部署五:分布式部署之分发基本测试及监控

篇首语:本文由编程笔记#小编为大家整理,主要介绍了Hadoop分布式部署五:分布式部署之分发基本测试及监控相关的知识,希望对你有一定的参考价值。

篇首语:本文由编程笔记#小编为大家整理,主要介绍了Hadoop 分布式部署 五:分布式部署之分发基本测试及监控相关的知识,希望对你有一定的参考价值。



1.对  hadoop 进行格式化

    到  /opt/app/hadoop-2.5.0  目录下  执行命令:    bin/hdfs namenode -format

      执行的效果图如下  (  下图成功   格式化     不要没事格式化  )

              

 

2.启动dfs   

   执行命令(在  /opt/app/hadoop-2.5.0/目录下):    sbin/start-dfs.sh      

      执行之后的效果就如下图 (可以看到  3个DataNode已经启动起来了,NameNode  和 secondarynamenode 也已经启动起来了)

      

      然后在分别上这三台机器上查看一下启动情况

      节点一(hadoop-senior.zuoayn.com)

      

       节点二 (hadoop-senior02.zuoyan.com)

      

      节点三(Hadoop-senior03.zuoyan.com)

      

 

      可以看到 每个节点上执行的任务  都是我们当时设计的,我的这种情况是比较幸运的没有出现什么错误,都启动起来了,但是有的时候会出现  

      :Temporary  failure in name resolutionop-senior02.zuoyan.com

      :Temporary  failure in name resolutionop-senior.zuoyan.com 

      出现这个原因是因为 拷贝虚拟机出现的问题  出现这种情况的原因 就是域名解析问题   机器重启  ,还有另一种方式解决

      就是到每个机器上单独去启动   使用命令 :sbin/hadoop-daemon.sh start datanode 

         

通过浏览器打开查看一下启动情况:

      输入网址:http://hadoop-senior.zuoyan.com:50070(这里也就是第一个主机的ip地址,因为我映射到了windows的hosts中,所以也能通过这个主机名访问)

       点击主页的  LiveNodes  就可以看见如下的界面

       这个界面上显示的就是我们的节点

            

使用一些命令进行测试一下

        创建目录命令:    bin/hdfs  dfs -mkdir -p /user/beifeng/tmp/conf

        

        上传文件命令:   bin/hdfs dfs -put /etc/hadoop/*.-site.xml  /user/beifeng/tmp/conf

        

                            读取文件命令:   bin/hdfs dfs -text /user/beifeng/tmp/conf/core-site.xml   (下图就是成功的读取出来了)

        

        

        

3.启动yarn  

    (在/opt/app/hadoop-2.5.0 的目录下  )   使用命令:  sbin/start-yarn.sh

    

 

    在启动yarn的时候我的出先了一个问题  就是resourcemanager  启动不起来  不论是在  第一个节点上看,还是在第二个节点上看  都没有resourcemanager 

      

      日志信息如下

      

 

        最终在开源中国上查找到了解决方案  

        Namenode和ResourceManger如果不是同一台机器,不能在NameNode上启动 yarn,应该在ResouceManager所在的机器上启动yarn。

 

4.测试Mapreduce程序

        首先创建一个目录用来存放输入数据  命令:    bin/hdfs dfs -mkdir -p /user/beifeng/mapreduce/wordcount/input

        

        上传文件到文件系统上去  命令:bin/hdfs dfs -put /opt/modules/hadoop-2.5.0/wc.input /user/beifeng/mapreduce/wordcount/input

         

        使用命令查看一下文件是否上传成功 命令:bin/hdfs dfs -ls /user/beifeng/mapreduce/wordcount/input   (可以看到wc.input 已经在这个目录下)

          

        

        完成准备工作之后  就开始使用 yarn 来运行wordcount 程序 

        命令: bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /user/beifeng/mapreduce/wordcount/input    /user/beifeng/mapreduce/wordcount/output

        程序已经开始在机器上运行了

        

        

        从WEB页面上看到的效果

        

        

        最后在使用hdfs 的命令来查看一下   wordcount 统计的结果  命令 :bin/hdfs -dfs -text /user/beifeng/mapreduce/wordcount/output/part*

        

        

 

到此  配置结束,但是剩下的还有 环境问题解决  和  集群基础测试

 

    

 

 

        

 

 

        

        

 

 

         

 

 

 

 

  

      

 



推荐阅读
  • 使用Maven JAR插件将单个或多个文件及其依赖项合并为一个可引用的JAR包
    本文介绍了如何利用Maven中的maven-assembly-plugin插件将单个或多个Java文件及其依赖项打包成一个可引用的JAR文件。首先,需要创建一个新的Maven项目,并将待打包的Java文件复制到该项目中。通过配置maven-assembly-plugin,可以实现将所有文件及其依赖项合并为一个独立的JAR包,方便在其他项目中引用和使用。此外,该方法还支持自定义装配描述符,以满足不同场景下的需求。 ... [详细]
  • Presto:高效即席查询引擎的深度解析与应用
    本文深入解析了Presto这一高效的即席查询引擎,详细探讨了其架构设计及其优缺点。Presto通过内存到内存的数据处理方式,显著提升了查询性能,相比传统的MapReduce查询,不仅减少了数据传输的延迟,还提高了查询的准确性和效率。然而,Presto在大规模数据处理和容错机制方面仍存在一定的局限性。本文还介绍了Presto在实际应用中的多种场景,展示了其在大数据分析领域的强大潜力。 ... [详细]
  • Hadoop 2.6 主要由 HDFS 和 YARN 两大部分组成,其中 YARN 包含了运行在 ResourceManager 的 JVM 中的组件以及在 NodeManager 中运行的部分。本文深入探讨了 Hadoop 2.6 日志文件的解析方法,并详细介绍了 MapReduce 日志管理的最佳实践,旨在帮助用户更好地理解和优化日志处理流程,提高系统运维效率。 ... [详细]
  • 在Hive中合理配置Map和Reduce任务的数量对于优化不同场景下的性能至关重要。本文探讨了如何控制Hive任务中的Map数量,分析了当输入数据超过128MB时是否会自动拆分,以及Map数量是否越多越好的问题。通过实际案例和实验数据,本文提供了具体的配置建议,帮助用户在不同场景下实现最佳性能。 ... [详细]
  • hadoop3.1.2 first programdefault wordcount (Mac)
    hadoop3.1.2安装完成后的第一个实操示例程 ... [详细]
  • DVWA学习笔记系列:深入理解CSRF攻击机制
    DVWA学习笔记系列:深入理解CSRF攻击机制 ... [详细]
  • 基于Net Core 3.0与Web API的前后端分离开发:Vue.js在前端的应用
    本文介绍了如何使用Net Core 3.0和Web API进行前后端分离开发,并重点探讨了Vue.js在前端的应用。后端采用MySQL数据库和EF Core框架进行数据操作,开发环境为Windows 10和Visual Studio 2019,MySQL服务器版本为8.0.16。文章详细描述了API项目的创建过程、启动步骤以及必要的插件安装,为开发者提供了一套完整的开发指南。 ... [详细]
  • Python 序列图分割与可视化编程入门教程
    本文介绍了如何使用 Python 进行序列图的快速分割与可视化。通过一个实际案例,详细展示了从需求分析到代码实现的全过程。具体包括如何读取序列图数据、应用分割算法以及利用可视化库生成直观的图表,帮助非编程背景的用户也能轻松上手。 ... [详细]
  • 本文详细解析了使用C++实现的键盘输入记录程序的源代码,该程序在Windows应用程序开发中具有很高的实用价值。键盘记录功能不仅在远程控制软件中广泛应用,还为开发者提供了强大的调试和监控工具。通过具体实例,本文深入探讨了C++键盘记录程序的设计与实现,适合需要相关技术的开发者参考。 ... [详细]
  • 本文详细介绍了在MySQL中如何高效利用EXPLAIN命令进行查询优化。通过实例解析和步骤说明,文章旨在帮助读者深入理解EXPLAIN命令的工作原理及其在性能调优中的应用,内容通俗易懂且结构清晰,适合各水平的数据库管理员和技术人员参考学习。 ... [详细]
  • 深入剖析Java中SimpleDateFormat在多线程环境下的潜在风险与解决方案
    深入剖析Java中SimpleDateFormat在多线程环境下的潜在风险与解决方案 ... [详细]
  • 在Android平台中,播放音频的采样率通常固定为44.1kHz,而录音的采样率则固定为8kHz。为了确保音频设备的正常工作,底层驱动必须预先设定这些固定的采样率。当上层应用提供的采样率与这些预设值不匹配时,需要通过重采样(resample)技术来调整采样率,以保证音频数据的正确处理和传输。本文将详细探讨FFMpeg在音频处理中的基础理论及重采样技术的应用。 ... [详细]
  • C++ 开发实战:实用技巧与经验分享
    C++ 开发实战:实用技巧与经验分享 ... [详细]
  • Spring框架的核心组件与架构解析 ... [详细]
  • 构建高可用性Spark分布式集群:大数据环境下的最佳实践
    在构建高可用性的Spark分布式集群过程中,确保所有节点之间的无密码登录是至关重要的一步。通过在每个节点上生成SSH密钥对(使用 `ssh-keygen -t rsa` 命令并保持默认设置),可以实现这一目标。此外,还需将生成的公钥分发到所有节点的 `~/.ssh/authorized_keys` 文件中,以确保节点间的无缝通信。为了进一步提升集群的稳定性和性能,建议采用负载均衡和故障恢复机制,并定期进行系统监控和维护。 ... [详细]
author-avatar
囌格菈帥厎
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有