热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

hadoop自定义排序对比器和分组对比器

hadoop自定义排序对比器和分组对比器概述MR作业大致分为两个阶段,具体流程如下:map阶段读取输入文件内容,解析成k-v对。对输入文件的每一行,解析成k-v对。执行自定义map
hadoop自定义排序对比器和分组对比器

概述

MR作业大致分为两个阶段,具体流程如下:

  1. map阶段
    1. 读取输入文件内容,解析成k-v对。对输入文件的每一行,解析成k-v对。
    2. 执行自定义map函数过程,对输入k-v进行处理,每一个k-v对调用一次map函数,然后输出新的k-v对。
    3. 对输出的k-v进行分区。
    4. 对不同分区的数据,按照key进行排序和分组。相同的Key的value放在同一个集合中。
    5. 本地reduce过程,对分组后的数据进行规约。(该过程不是必需的)
  2. reduce阶段
    1. 对多个map任务的输出(或者是多个combin过程的输出),按照不同的分区,通过网络传输到不同的reduce节点上。
    2. 对map任务的输出进行合并、排序。
    3. 自定义reduce阶段,对输入的k-v进行处理,转换成新的k-v。
    4. 把reduce的输出保存到hdfs上。

从上面的流程中可以看出不管是在map阶段还是在reduce阶段都需要对key值进行排序和分组。所以对key值进行排序就得需要排序对比器,对key值进行分组就得需要分组对比器。

在默认情况下hadoop是按照key值的compareTo方法进行排序和分组的,hadoop对常用的java基本数据类型以及对象等都进行了包装,将他们包装成WritableCompatrable对象,并且都实现了compareTo方法。

如果自定义数据类型作为key的话,必须要实现WritableComparable接口。

当然hadoop也允许程序员自己定义相应的排序对比器和分组排序对比器来对key值进行灵活的排序和分组。

自定义对比器方法

实现步骤:

  1. 自定义类MyComparator继承WritableComparator
  2. 添加空构造方法
  3. 重写compare(WritableComparable a, WritableComparable b)方法
  4. 将MyComparator类型加入到job的配置文件中

代码部分实现

public class MyComparator extends WritableComparator {
public KeyComparator(){
super(DefinedKeyType.class, true);
}
public int compare(WritableComparable a, WritableComparable b) {
......
}
}

将对比起加入到job中

//设置排序对比器
job.setSortComparatorClass(KeyComparator.class);
//设置分组对比起
job.setGroupingComparatorClass(GroupComparator.class);

WritableComparator类解析

构造函数分析

protected WritableComparator() {
this(null);
}
/** Construct for a {@link WritableComparable} implementation. */
protected WritableComparator(Class keyClass) {
this(keyClass, null, false);
}
protected WritableComparator(Class keyClass,
boolean createInstances) {
this(keyClass, null, createInstances);
}
//所有的构造方法最终都要调用的根构造
protected WritableComparator(Class keyClass,
Configuration conf,
boolean createInstances) {
this.keyClass = keyClass;
this.cOnf= (conf != null) ? conf : new Configuration();
if (createInstances) {
key1 = newKey();
key2 = newKey();
buffer = new DataInputBuffer();
} else {
key1 = key2 = null;
buffer = null;
}
}

compare方法

/** * 覆盖的原生比较器中的方法,最终调用compare(WritableComparator,WritableComparator)方法 * 该方法需要buffer对象,key1和key2对象存在,所以自定义比较器时必须要重写构造函数,并且 * 将boolean createInstances参数设为true */
public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2) {
try {
buffer.reset(b1, s1, l1); // parse key1
key1.readFields(buffer);
buffer.reset(b2, s2, l2); // parse key2
key2.readFields(buffer);
buffer.reset(null, 0, 0); // clean up reference
} catch (IOException e) {
throw new RuntimeException(e);
}
return compare(key1, key2); // compare them
}
//最终调用compare(WritableComparator,WritableComparator)方法
public int compare(Object a, Object b) {
return compare((WritableComparable)a, (WritableComparable)b);
}
//自定义比较器时只需要覆盖该方法即可,因为其它的所有重载方法最终都是 调用的这个方法
public int compare(WritableComparable a, WritableComparable b) {
return a.compareTo(b);
}

总结

自定义Key值对比器和分组对比器的实现方式一样,默认在不定义对比器的情况下,排序和分组都是按照key值对象的compateTo方法进行对比的。
需要注意的是自定义对比器时一定要重写构造函数,将boolean createInstances的属性设置为true。


推荐阅读
  • HDFS2.x新特性
    一、集群间数据拷贝scp实现两个远程主机之间的文件复制scp-rhello.txtroothadoop103:useratguiguhello.txt推pushscp-rr ... [详细]
  • 海马s5近光灯能否直接更换为H7?
    本文主要介绍了海马s5车型的近光灯是否可以直接更换为H7灯泡,并提供了完整的教程下载地址。此外,还详细讲解了DSP功能函数中的数据拷贝、数据填充和浮点数转换为定点数的相关内容。 ... [详细]
  • importorg.apache.hadoop.hdfs.DistributedFileSystem;导入方法依赖的package包类privatevoidtestHSyncOpe ... [详细]
  • Java太阳系小游戏分析和源码详解
    本文介绍了一个基于Java的太阳系小游戏的分析和源码详解。通过对面向对象的知识的学习和实践,作者实现了太阳系各行星绕太阳转的效果。文章详细介绍了游戏的设计思路和源码结构,包括工具类、常量、图片加载、面板等。通过这个小游戏的制作,读者可以巩固和应用所学的知识,如类的继承、方法的重载与重写、多态和封装等。 ... [详细]
  • 本文介绍了如何清除Eclipse中SVN用户的设置。首先需要查看使用的SVN接口,然后根据接口类型找到相应的目录并删除相关文件。最后使用SVN更新或提交来应用更改。 ... [详细]
  • OpenMap教程4 – 图层概述
    本文介绍了OpenMap教程4中关于地图图层的内容,包括将ShapeLayer添加到MapBean中的方法,OpenMap支持的图层类型以及使用BufferedLayer创建图像的MapBean。此外,还介绍了Layer背景标志的作用和OMGraphicHandlerLayer的基础层类。 ... [详细]
  • 使用freemaker生成Java代码的步骤及示例代码
    本文介绍了使用freemaker这个jar包生成Java代码的步骤,通过提前编辑好的模板,可以避免写重复代码。首先需要在springboot的pom.xml文件中加入freemaker的依赖包。然后编写模板,定义要生成的Java类的属性和方法。最后编写生成代码的类,通过加载模板文件和数据模型,生成Java代码文件。本文提供了示例代码,并展示了文件目录结构。 ... [详细]
  • 本文介绍了在PostgreSQL中批量导入数据时的优化方法。包括使用unlogged表、删除重建索引、删除重建外键、禁用触发器、使用COPY方法、批量插入等。同时还提到了一些参数优化的注意事项,如设置effective_cache_size、shared_buffer等,并强调了在导入大量数据后使用analyze命令重新收集统计信息的重要性。 ... [详细]
  • tcpdump 4.5.1 crash 深入分析
    tcpdump 4.5.1 crash 深入分析 ... [详细]
  • STM32 IO口模拟串口通讯
    转自:http:ziye334.blog.163.comblogstatic224306191201452833850647前阵子,调项目时需要用到低波 ... [详细]
  • Hadoop2.6.0 + 云centos +伪分布式只谈部署
    3.0.3玩不好,现将2.6.0tar.gz上传到usr,chmod-Rhadoop:hadophadoop-2.6.0,rm掉3.0.32.在etcp ... [详细]
  • 设备模型三(潜谈sysfs)
    前言引出一个问题:假设sysaxx,xx是kobja的属性文件,当对xx进行写操作时,即echo‘1’sysaxx实际上,调用了kobja的ktype中定义的接口函 ... [详细]
  • 初识java关于JDK、JRE、JVM 了解一下 ... [详细]
  • 什么是大数据lambda架构
    一、什么是Lambda架构Lambda架构由Storm的作者[NathanMarz]提出,根据维基百科的定义,Lambda架构的设计是为了在处理大规模数 ... [详细]
  • Imtryingtofigureoutawaytogeneratetorrentfilesfromabucket,usingtheAWSSDKforGo.我正 ... [详细]
author-avatar
口十又欠又欠
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有