热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

hadoop3.1.2firstprogramdefaultwordcount(Mac)

hadoop3.1.2安装完成后的第一个实操示例程

所以在安装完hadoop3.1.2以及hive3.1.2后,想操作一波感受一下hadoop的用法。

1.启动hadoop3.1.2

进入terminal后cd usr/local/Cellar/hadoop/hadoop-3.1.2/sbin/ 到sbin文件夹内./star-all.sh并用jps查看各节点运行的状态,是否都启动成功,成功如下如。

2.新建input目录

进入hdfs系统后创建一个input目录hadoop fs -mkdir input查询hadoop下面所有目录hadoop fs -ls

3.上传wordcount测试文件LICENSE.txt

这里要说明一下,这个warn实在困扰我很久,看了多种解决方案都暂时没有解决问题,尝试了环境变量的配置包括JAVA_LIBRARY_PATH,以及hadoop-env.sh中添加

export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"  

都不行,调试了2个小时心态崩了。但是不影响程序进行,姑且let it be改日再解决治好强迫症。

==========

Hadoop开启关闭调试信息  

开启:export HADOOP_ROOT_LOGGER=DEBUG,console

关闭:export HADOOP_ROOT_LOGGER=INFO,console

==========

将hadoop-3.1.2目录下的LICENSE.txt文件传到hdfs中,在该目录下操作,通过hadoop fs -ls input查看是否上传成功

4.通过hadoop自带示例程序统计各单词出现次数

Maggies-MacBook-Pro:hadoop-3.1.2 yuyan$ hadoop jar usr/local/Cellar/hadoop/hadoop-3.1.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.2.jar wordcount input output

卡住一万年,心态崩了。先另外开启一个新的terminal,把job kill掉。

hadoop job -list 查看任务列表
hadoop job -kill $jobId 终止某个任务

eg: hadoop job -kill job_1576070350408_0002

找到了卡住的原因,原因是内存不足,解决方案见reference3),这件事情告诉我们买电脑一定要买顶配版:)

继续报错,这次是由于yarn-site.xml里面classpath设置不正确。输入hadoop classpath得到结果,重新配置yarn-site.xml


    yarn.application.classpath
       {此处填写hadoop classpath返回结果很长一串}

    配置完成后如下,

    重新启动hadoop后进入到hadoop-3.1.2目录下,这次可以了。

    5.运行成功后

    查看目录hadoop fs -ls 会发现多一个output的文件夹,进入该文件夹后会发现多两个_SUCCESS和part-r-00000两个文件夹,其中part-r-00000就是运行结果(此处结果仅截图部分)。

    另外也可以通过网页查看,http://localhost:9870,utilities-->browse the file system,可以看到input output文件夹,点进去可以看见具体文件

    以上就是hadoop的第一个示例程序。








    references:

    1).https://blog.csdn.net/CHL123456789/article/details/88662085

    2).https://www.cnblogs.com/momoyan/p/9230559.html

    3).https://blog.csdn.net/wjw498279281/article/details/80317424



    推荐阅读
    • 本文详细分析了Hive在启动过程中遇到的权限拒绝错误,并提供了多种解决方案,包括调整文件权限、用户组设置以及环境变量配置等。 ... [详细]
    • Hadoop入门与核心组件详解
      本文详细介绍了Hadoop的基础知识及其核心组件,包括HDFS、MapReduce和YARN。通过本文,读者可以全面了解Hadoop的生态系统及应用场景。 ... [详细]
    • 简化报表生成:EasyReport工具的全面解析
      本文详细介绍了EasyReport,一个易于使用的开源Web报表工具。该工具支持Hadoop、HBase及多种关系型数据库,能够将SQL查询结果转换为HTML表格,并提供Excel导出、图表显示和表头冻结等功能。 ... [详细]
    • 本文探讨了Hive中内部表和外部表的区别及其在HDFS上的路径映射,详细解释了两者的创建、加载及删除操作,并提供了查看表详细信息的方法。通过对比这两种表类型,帮助读者理解如何更好地管理和保护数据。 ... [详细]
    • 解决JAX-WS动态客户端工厂弃用问题并迁移到XFire
      在处理Java项目中的JAR包冲突时,我们遇到了JaxWsDynamicClientFactory被弃用的问题,并成功将其迁移到org.codehaus.xfire.client。本文详细介绍了这一过程及解决方案。 ... [详细]
    • 本文详细介绍了 Flink 和 YARN 的交互机制。YARN 是 Hadoop 生态系统中的资源管理组件,类似于 Spark on YARN 的配置方式。我们将基于官方文档,深入探讨如何在 YARN 上部署和运行 Flink 任务。 ... [详细]
    • Hadoop发行版本选择指南:技术解析与应用实践
      本文详细介绍了Hadoop的不同发行版本及其特点,帮助读者根据实际需求选择最合适的Hadoop版本。内容涵盖Apache Hadoop、Cloudera CDH等主流版本的特性及应用场景。 ... [详细]
    • 全面解析运维监控:白盒与黑盒监控及四大黄金指标
      本文深入探讨了白盒和黑盒监控的概念,以及它们在系统监控中的应用。通过详细分析基础监控和业务监控的不同采集方法,结合四个黄金指标的解读,帮助读者更好地理解和实施有效的监控策略。 ... [详细]
    • 本文详细介绍如何使用 Apache Spark 执行基本任务,包括启动 Spark Shell、运行示例程序以及编写简单的 WordCount 程序。同时提供了参数配置的注意事项和优化建议。 ... [详细]
    • 深入解析Hadoop的核心组件与工作原理
      本文详细介绍了Hadoop的三大核心组件:分布式文件系统HDFS、资源管理器YARN和分布式计算框架MapReduce。通过分析这些组件的工作机制,帮助读者更好地理解Hadoop的架构及其在大数据处理中的应用。 ... [详细]
    • 本文探讨了Hive作业中Map任务数量的确定方式,主要涉及HiveInputFormat和CombineHiveInputFormat两种InputFormat的分片计算逻辑。通过调整相关参数,可以有效控制Map任务的数量,进而优化Hive作业的性能。 ... [详细]
    • 本文详细介绍了如何使用Spring Boot进行高效开发,涵盖了配置、实例化容器以及核心注解的使用方法。 ... [详细]
    • XNA 3.0 游戏编程:从 XML 文件加载数据
      本文介绍如何在 XNA 3.0 游戏项目中从 XML 文件加载数据。我们将探讨如何将 XML 数据序列化为二进制文件,并通过内容管道加载到游戏中。此外,还会涉及自定义类型读取器和写入器的实现。 ... [详细]
    • 使用Python在SAE上开发新浪微博应用的初步探索
      最近重新审视了新浪云平台(SAE)提供的服务,发现其已支持Python开发。本文将详细介绍如何利用Django框架构建一个简单的新浪微博应用,并分享开发过程中的关键步骤。 ... [详细]
    • 基于KVM的SRIOV直通配置及性能测试
      SRIOV介绍、VF直通配置,以及包转发率性能测试小慢哥的原创文章,欢迎转载目录?1.SRIOV介绍?2.环境说明?3.开启SRIOV?4.生成VF?5.VF ... [详细]
    author-avatar
    苏格拉没有底YI_670
    这个家伙很懒,什么也没留下!
    PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
    Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有