热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

本地执行MapReduce程序之后,报的一些错误

【clienteclipse集群提交运行】:客户端eclipse集群提交mapreduce代码1.需求:在master:8088上,有客户

【client eclipse集群提交运行】:客户端 eclipse集群提交 mapreduce代码

 
   1.  需求:在master:8088上,有客户端提交的job,则需要local-->yarn
     需要改: 【mapred-site.xml】


            mapreduce.framework.namelocal //改成yarnThe runtime framework for executing MapReduce jobs.Can be one of local, classic or yarn. 
  2.报错:       

             

            2018-06-28 00:23:18,573 WARN [main] util.NativeCodeLoader (NativeCodeLoader.java:· (62)) - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable2018-06-28 00:23:20,481 INFO [main] client.RMProxy (RMProxy.java:createRMProxy(98)) -  Connecting to ResourceManager at /0.0.0.0:8032Retrying connect to server: 0.0.0.0/0.0.0.0:8032.//主机名默认是0.0.0.0,然后尝试连接连不上,需要指定指定主机名为master,去连接

             解决:【yarn-site.xml】

                    The hostname of the RM.yarn.resourcemanager.hostnamemaster //默认值是:0.0.0.0
 3. 报错:

       

Exit code: 1Exception message: /bin/bash: line 0: fg: no job control//没有job协议                         Container exited with a non-zero exit code 1Failing this attempt. Failing the application.2018-06-28 00:40:54,407 INFO [main] mapreduce.Job (Job.java:monitorAndPrintJob(1385)) - Counters: 0       解决: 【mapred-site.xml】

        允许跨平台,使得Windows平台向集群提交job  

             If enabled, user can submit an application cross-platform //用户就可以提交应用跨平台i.e. submit an application from a Windows client to a Linux/Unix server orvice versa.mapreduce.app-submission.cross-platform //app应用允许跨平台true //默认false,应该改成true
  4. 执行之后,无结果运行:

        

No job jar file set. User classes may not be found. See Job or Job#setJar(String). Container killed by the ApplicationMaster.Container killed on request. Exit code is 143Container exited with a non-zero exit code 143        原因:没有生成jar文件

        解决:打jar包(将写的java文件和配置的文件都导出)。

                    放置到classpath下:右键jar包-->Bulid Path-->add to Bulid Path


 5.报错:0.0.0./0.0.0.:10020,反复的报这个错

                10020是历史服务器;

          解决:把历史服务器开启来就好,开启history服务,

          命令即可:            

                 1) $>mr-jobhistory-daemon.sh start historyserver

                 2) 还要修改【mapred-site.xml】:

                       
 mapreduce.jobhistory.address = master:10020

                      mapred-site.xml中还有添加:        

                       

            mapreduce.jobhistory.address0.0.0.0:10020 //改成master:10020MapReduce JobHistory Server IPC host:port  

        



 







推荐阅读
  • 深入解析Spark核心架构与部署策略
    本文详细探讨了Spark的核心架构,包括其运行机制、任务调度和内存管理等方面,以及四种主要的部署模式:Standalone、Apache Mesos、Hadoop YARN和Kubernetes。通过本文,读者可以深入了解Spark的工作原理及其在不同环境下的部署方式。 ... [详细]
  • 深入浅出:Hadoop架构详解
    Hadoop作为大数据处理的核心技术,包含了一系列组件如HDFS(分布式文件系统)、YARN(资源管理框架)和MapReduce(并行计算模型)。本文将通过实例解析Hadoop的工作原理及其优势。 ... [详细]
  • Hadoop MapReduce 实战案例:手机流量使用统计分析
    本文通过一个具体的Hadoop MapReduce案例,详细介绍了如何利用MapReduce框架来统计和分析手机用户的流量使用情况,包括上行和下行流量的计算以及总流量的汇总。 ... [详细]
  • 本文介绍了如何在 MapReduce 作业中使用 SequenceFileOutputFormat 生成 SequenceFile 文件,并详细解释了 SequenceFile 的结构和用途。 ... [详细]
  • Hadoop 2.6 主要由 HDFS 和 YARN 两大部分组成,其中 YARN 包含了运行在 ResourceManager 的 JVM 中的组件以及在 NodeManager 中运行的部分。本文深入探讨了 Hadoop 2.6 日志文件的解析方法,并详细介绍了 MapReduce 日志管理的最佳实践,旨在帮助用户更好地理解和优化日志处理流程,提高系统运维效率。 ... [详细]
  • Hadoop发行版本选择指南:技术解析与应用实践
    本文详细介绍了Hadoop的不同发行版本及其特点,帮助读者根据实际需求选择最合适的Hadoop版本。内容涵盖Apache Hadoop、Cloudera CDH等主流版本的特性及应用场景。 ... [详细]
  • ListView简单使用
    先上效果:主要实现了Listview的绑定和点击事件。项目资源结构如下:先创建一个动物类,用来装载数据:Animal类如下:packagecom.example.simplelis ... [详细]
  • 全面解读Apache Flink的核心架构与优势
    Apache Flink作为大数据处理领域的新兴力量,凭借其独特的流处理能力和高效的批处理性能,迅速获得了广泛的关注。本文旨在深入探讨Flink的关键技术特点及其应用场景,为大数据处理提供新的视角。 ... [详细]
  • 流处理中的计数挑战与解决方案
    本文探讨了在流处理中进行计数的各种技术和挑战,并基于作者在2016年圣何塞举行的Hadoop World大会上的演讲进行了深入分析。文章不仅介绍了传统批处理和Lambda架构的局限性,还详细探讨了流处理架构的优势及其在现代大数据应用中的重要作用。 ... [详细]
  • 深入理解云计算与大数据技术
    本文详细探讨了云计算与大数据技术的关键知识点,包括大数据处理平台、社会网络大数据、城市大数据、工业大数据、教育大数据、数据开放与共享的应用,以及搜索引擎与Web挖掘、推荐技术的研究及应用。文章还涵盖了云计算的基础概念、特点和服务类型分类。 ... [详细]
  • 本文介绍如何通过整合SparkSQL与Hive来构建高效的用户画像环境,提高数据处理速度和查询效率。 ... [详细]
  • 本文介绍了如何使用Flume从Linux文件系统收集日志并存储到HDFS,然后通过MapReduce清洗数据,使用Hive进行数据分析,并最终通过Sqoop将结果导出到MySQL数据库。 ... [详细]
  • 2012年9月12日优酷土豆校园招聘笔试题目解析与备考指南
    2012年9月12日,优酷土豆校园招聘笔试题目解析与备考指南。在选择题部分,有一道题目涉及中国人的血型分布情况,具体为A型30%、B型20%、O型40%、AB型10%。若需确保在随机选取的样本中,至少有一人为B型血的概率不低于90%,则需要选取的最少人数是多少?该问题不仅考察了概率统计的基本知识,还要求考生具备一定的逻辑推理能力。 ... [详细]
  • 如何高效启动大数据应用之旅?
    在前一篇文章中,我探讨了大数据的定义及其与数据挖掘的区别。本文将重点介绍如何高效启动大数据应用项目,涵盖关键步骤和最佳实践,帮助读者快速踏上大数据之旅。 ... [详细]
  • 在Hive中合理配置Map和Reduce任务的数量对于优化不同场景下的性能至关重要。本文探讨了如何控制Hive任务中的Map数量,分析了当输入数据超过128MB时是否会自动拆分,以及Map数量是否越多越好的问题。通过实际案例和实验数据,本文提供了具体的配置建议,帮助用户在不同场景下实现最佳性能。 ... [详细]
author-avatar
手机用户2602907485
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有