热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

windows部署hadoop2.7.0

    这里使用自己编译的hadoop-2.7.0版本部署在windows上,记得几年前,部署hadoop需要借助于cygwin,还需要开启ssh服务,最近发现,原来不需要借助cy

        这里使用自己编译的hadoop-2.7.0版本部署在windows上,记得几年前,部署hadoop需要借助于cygwin,还需要开启ssh服务,最近发现,原来不需要借助cygwin,也无需开启ssh免密登录这些类linux的复杂流程。直接就可以sbin/start-all.cmd,开启了四个服务。

第一步、准备hadoop-2.7.0,其实就是自己编译,这里不介绍,可以直接在网上找已经编译好的windows版本。这里将我自己编译的放在github上。编译过的hadoop与一般下载的hadoop的区别在于bin目录,如果是windows,那么会有很多dll,lib等文件。主要的还是需要libwinutils.lib,winutils.exe这些文件。

第二步、既然能编译hadoop-2.7.0,那么本地环境肯定是有了jdk了,这里不介绍环境了,很简单,只需要jdk,一个编译好的hadoop-2.7.0,设置etc/hadoop/hadoop-env.cmd中的JAVA_HOME环境变量。这里需要注意,如果环境变量路径中有Program Files,需要修改为PROGRA~1,如下所示:

另外需要将hadoop目录作为环境变量HADOOP_HOME加入系统中,并将%HADOOP_HOME%\bin加入到Path环境变量中。 

接着就可以验证hadoop版本信息了:

第三步、修改配置core-site.xml,hdfs-site.xml,mapred-site.xml(默认是mapred-site.xml.template,重命名一下),yarn-site.xml

core-site.xml



   



        fs.defaultFS

        hdfs://localhost:9000

    

hdfs-site.xml



   



        dfs.replication

        1

    

    



        dfs.namenode.name.dir

        /E:/software/hadoop-2.7.0/namenode

    

    



        dfs.datanode.data.dir

        /E:/software/hadoop-2.7.0/datanode

    

mapred-site.xml



     



          mapreduce.framework.name

          yarn

    

yarn-site.xml



     



          yarn.nodemanager.aux-services

          mapreduce_shuffle

      

     



          yarn.nodemanager.aux-services.mapreduce.shuffle.class

          org.apache.hadoop.mapred.ShuffleHandler

      

将配置文件中提到的目录datanode,namenode创建一下,另外创建一个tmp文件夹。

第四步、格式化数据 :hadoop namenode -format

第五步、启动hadoop-dfs和hadoop-yarn服务,直接运行sbin\start-all.cmd

这里会分别启动四个窗口,包含了namenode,datanode,resourcemanager,nodemanager服务。

namenode console 

datanode console 

resourcemanager console 

 

nodemanager console 

服务启动了,没有异常,可以进行进一步的验证。

jps查看服务

hdfs验证

mapreduce验证 :运行hadoop自带的示例 wordcount


hadoop jar share\hadoop\mapreduce\hadoop-mapreduce-examples-2.7.0.jar wordcount /user/hadoop/input \
/user/hadoop/output

查看wordcount运行结果: 

webui界面就不展示了,至此,windows上部署hadoop就演示完成了。重点是需要一个编译好的hadoop。 



推荐阅读
  • 大数据领域的职业路径与角色解析
    本文将深入探讨大数据领域的各种职业和工作角色,帮助读者全面了解大数据行业的需求、市场趋势,以及从入门到高级专业人士的职业发展路径。文章还将详细介绍不同公司对大数据人才的需求,并解析各岗位的具体职责、所需技能和经验。 ... [详细]
  • 流处理中的计数挑战与解决方案
    本文探讨了在流处理中进行计数的各种技术和挑战,并基于作者在2016年圣何塞举行的Hadoop World大会上的演讲进行了深入分析。文章不仅介绍了传统批处理和Lambda架构的局限性,还详细探讨了流处理架构的优势及其在现代大数据应用中的重要作用。 ... [详细]
  • 本文介绍了Hadoop的核心组件,包括高可靠性和高吞吐量的分布式文件系统HDFS、分布式的离线并行计算框架MapReduce、作业调度与集群资源管理框架YARN以及支持其他模块的工具模块Common。 ... [详细]
  • 我有一个从C项目编译的.o文件,该文件引用了名为init_static_pool ... [详细]
  • Hadoop的文件操作位于包org.apache.hadoop.fs里面,能够进行新建、删除、修改等操作。比较重要的几个类:(1)Configurati ... [详细]
  • 高效的JavaScript异步资源加载解决方案
    本文探讨了如何通过异步加载技术处理网页中大型第三方插件的加载问题,避免将大文件打包进主JS文件中导致的加载时间过长,介绍了实现异步加载的具体方法及其优化。 ... [详细]
  • Ubuntu 14.04 系统安装后网卡名称修改方法
    本文介绍了在安装 Ubuntu 14.04 Server 版本后,如何将默认的网卡名称从非 eth 格式修改为传统的 eth 格式,并提供了详细的步骤和示例。 ... [详细]
  • Oracle 10g 和 11g 32位 OCI.DLL 文件下载
    32位 PL/SQL Developer 访问 64位 Oracle 11g 数据库时,需要使用 32位的 OCI.DLL 文件以确保正常连接和数据访问。本文将详细介绍如何获取并配置此文件。 ... [详细]
  • 本文将详细介绍如何配置JDK 8u101的环境变量,包括下载、安装和环境变量的设置步骤。适用于64位和32位操作系统。 ... [详细]
  • 本文整理了一份基础的嵌入式Linux工程师笔试题,涵盖填空题、编程题和简答题,旨在帮助考生更好地准备考试。 ... [详细]
  • 安装 IIS 5.1 并注册 .NET 2.0 后,访问页面时出现 500 错误。本文提供详细的步骤和解决方案,帮助您解决该问题。 ... [详细]
  • 通过将常用的外部命令集成到VSCode中,可以提高开发效率。本文介绍如何在VSCode中配置和使用自定义的外部命令,从而简化命令执行过程。 ... [详细]
  • [转]doc,ppt,xls文件格式转PDF格式http:blog.csdn.netlee353086articledetails7920355确实好用。需要注意的是#import ... [详细]
  • 本文介绍了如何利用HTTP隧道技术在受限网络环境中绕过IDS和防火墙等安全设备,实现RDP端口的暴力破解攻击。文章详细描述了部署过程、攻击实施及流量分析,旨在提升网络安全意识。 ... [详细]
  • 开机自启动的几种方式
    0x01快速自启动目录快速启动目录自启动方式源于Windows中的一个目录,这个目录一般叫启动或者Startup。位于该目录下的PE文件会在开机后进行自启动 ... [详细]
author-avatar
心若在梦就在_2012
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有