热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

org.apache.hadoop.mapred.JobConf.getPartitionerClass()方法的使用及代码示例

本文整理了Java中org.apache.hadoop.mapred.JobConf.getPartitionerClass()方法的一些代码示例,展示了J

本文整理了Java中org.apache.hadoop.mapred.JobConf.getPartitionerClass()方法的一些代码示例,展示了JobConf.getPartitionerClass()的具体用法。这些代码示例主要来源于Github/Stackoverflow/Maven等平台,是从一些精选项目中提取出来的代码,具有较强的参考意义,能在一定程度帮忙到你。JobConf.getPartitionerClass()方法的具体详情如下:
包路径:org.apache.hadoop.mapred.JobConf
类名称:JobConf
方法名:getPartitionerClass

JobConf.getPartitionerClass介绍

[英]Get the Partitioner used to partition Mapper-outputs to be sent to the Reducers.
[中]获取用于对映射器输出进行分区以发送到还原器的分区器。

代码示例

代码示例来源:origin: apache/ignite

/** {@inheritDoc} */
@Override public HadoopPartitioner partitioner() throws IgniteCheckedException {
Class partClsOld = jobConf().getClass("mapred.partitioner.class", null);
if (partClsOld != null)
return new HadoopV1Partitioner(jobConf().getPartitionerClass(), jobConf());
try {
return new HadoopV2Partitioner(jobCtx.getPartitionerClass(), jobConf());
}
catch (ClassNotFoundException e) {
throw new IgniteCheckedException(e);
}
}

代码示例来源:origin: apache/hbase

/**
* @see org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil#addDependencyJars(org.apache.hadoop.mapreduce.Job)
*/
public static void addDependencyJars(JobConf job) throws IOException {
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addHBaseDependencyJars(job);
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addDependencyJarsForClasses(
job,
job.getMapOutputKeyClass(),
job.getMapOutputValueClass(),
job.getOutputKeyClass(),
job.getOutputValueClass(),
job.getPartitionerClass(),
job.getClass("mapred.input.format.class", TextInputFormat.class, InputFormat.class),
job.getClass("mapred.output.format.class", TextOutputFormat.class, OutputFormat.class),
job.getCombinerClass());
}
}

代码示例来源:origin: apache/hive

jc.getPartitionerClass(), null);

代码示例来源:origin: apache/drill

jc.getPartitionerClass(), null);

代码示例来源:origin: Impetus/jumbune

/**
* This method will return the Partitioner object which is used for
* partitioning map output
*
* @param context
* - Map context
* @return Partitioner object
*/
@SuppressWarnings(RAW_TYPES)
public static void setPartitioner(JobConf conf) {
org.apache.hadoop.mapred.Partitioner oldPartitiOner= null;
Class paritiOnerClass= null;
try {
paritiOnerClass= conf.getPartitionerClass();
oldPartitiOner= (org.apache.hadoop.mapred.Partitioner) paritionerClass
.newInstance();
OLD_PARTITIONER_THREAD_LOCAL.set(oldPartitioner);
} catch (InstantiationException e) {
LOGGER.error(ErrorCodesAndMessages.MESSAGE_PARTITIONER_NOT_SET
+ " : " + e);
} catch (IllegalAccessException e) {
LOGGER.error(ErrorCodesAndMessages.MESSAGE_PARTITIONER_NOT_SET
+ " : " + e);
}
}

代码示例来源:origin: org.apache.hadoop/hadoop-mapred

@SuppressWarnings("unchecked")
OldOutputCollector(MapOutputCollector collector, JobConf conf) {
numPartitiOns= conf.getNumReduceTasks();
if (numPartitions > 1) {
partitiOner= (Partitioner)
ReflectionUtils.newInstance(conf.getPartitionerClass(), conf);
} else {
partitiOner= new Partitioner() {
@Override
public void configure(JobConf job) { }
@Override
public int getPartition(K key, V value, int numPartitions) {
return numPartitions - 1;
}
};
}
this.collector = collector;
}

代码示例来源:origin: io.prestosql.hadoop/hadoop-apache

@SuppressWarnings("unchecked")
OldOutputCollector(MapOutputCollector collector, JobConf conf) {
numPartitiOns= conf.getNumReduceTasks();
if (numPartitions > 1) {
partitiOner= (Partitioner)
ReflectionUtils.newInstance(conf.getPartitionerClass(), conf);
} else {
partitiOner= new Partitioner() {
@Override
public void configure(JobConf job) { }
@Override
public int getPartition(K key, V value, int numPartitions) {
return numPartitions - 1;
}
};
}
this.collector = collector;
}

代码示例来源:origin: io.hops/hadoop-mapreduce-client-core

@SuppressWarnings("unchecked")
OldOutputCollector(MapOutputCollector collector, JobConf conf) {
numPartitiOns= conf.getNumReduceTasks();
if (numPartitions > 1) {
partitiOner= (Partitioner)
ReflectionUtils.newInstance(conf.getPartitionerClass(), conf);
} else {
partitiOner= new Partitioner() {
@Override
public void configure(JobConf job) { }
@Override
public int getPartition(K key, V value, int numPartitions) {
return numPartitions - 1;
}
};
}
this.collector = collector;
}

代码示例来源:origin: com.facebook.hadoop/hadoop-core

@SuppressWarnings("unchecked")
OldOutputCollector(MapOutputCollector collector, JobConf conf) {
numPartitiOns= conf.getNumReduceTasks();
if (numPartitions > 0) {
partitiOner= (Partitioner)
ReflectionUtils.newInstance(conf.getPartitionerClass(), conf);
} else {
partitiOner= new Partitioner() {
@Override
public void configure(JobConf job) { }
@Override
public int getPartition(K key, V value, int numPartitions) {
return -1;
}
};
}
this.collector = collector;
}

代码示例来源:origin: ch.cern.hadoop/hadoop-mapreduce-client-core

@SuppressWarnings("unchecked")
OldOutputCollector(MapOutputCollector collector, JobConf conf) {
numPartitiOns= conf.getNumReduceTasks();
if (numPartitions > 1) {
partitiOner= (Partitioner)
ReflectionUtils.newInstance(conf.getPartitionerClass(), conf);
} else {
partitiOner= new Partitioner() {
@Override
public void configure(JobConf job) { }
@Override
public int getPartition(K key, V value, int numPartitions) {
return numPartitions - 1;
}
};
}
this.collector = collector;
}

代码示例来源:origin: com.github.jiayuhan-it/hadoop-mapreduce-client-core

@SuppressWarnings("unchecked")
OldOutputCollector(MapOutputCollector collector, JobConf conf) {
numPartitiOns= conf.getNumReduceTasks();
if (numPartitions > 1) {
partitiOner= (Partitioner)
ReflectionUtils.newInstance(conf.getPartitionerClass(), conf);
} else {
partitiOner= new Partitioner() {
@Override
public void configure(JobConf job) { }
@Override
public int getPartition(K key, V value, int numPartitions) {
return numPartitions - 1;
}
};
}
this.collector = collector;
}

代码示例来源:origin: com.facebook.hadoop/hadoop-core

conf.setMapRunnerClass(PipesMapRunner.class);
setJavaPartitioner(conf, conf.getPartitionerClass());
conf.setPartitionerClass(PipesPartitioner.class);

代码示例来源:origin: io.hops/hadoop-mapreduce-client-core

conf.setMapRunnerClass(PipesMapRunner.class);
setJavaPartitioner(conf, conf.getPartitionerClass());
conf.setPartitionerClass(PipesPartitioner.class);

代码示例来源:origin: com.github.jiayuhan-it/hadoop-mapreduce-client-core

conf.setMapRunnerClass(PipesMapRunner.class);
setJavaPartitioner(conf, conf.getPartitionerClass());
conf.setPartitionerClass(PipesPartitioner.class);

代码示例来源:origin: co.cask.hbase/hbase

/**
* @see org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil#addDependencyJars(Job)
*/
public static void addDependencyJars(JobConf job) throws IOException {
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addDependencyJars(
job,
org.apache.zookeeper.ZooKeeper.class,
com.google.common.base.Function.class,
com.google.protobuf.Message.class,
job.getMapOutputKeyClass(),
job.getMapOutputValueClass(),
job.getOutputKeyClass(),
job.getOutputValueClass(),
job.getPartitionerClass(),
job.getClass("mapred.input.format.class", TextInputFormat.class, InputFormat.class),
job.getClass("mapred.output.format.class", TextOutputFormat.class, OutputFormat.class),
job.getCombinerClass());
}
}

代码示例来源:origin: org.apache.hadoop/hadoop-mapred

conf.setMapRunnerClass(PipesMapRunner.class);
setJavaPartitioner(conf, conf.getPartitionerClass());
conf.setPartitionerClass(PipesPartitioner.class);

代码示例来源:origin: org.jvnet.hudson.hadoop/hadoop-core

conf.setMapRunnerClass(PipesMapRunner.class);
setJavaPartitioner(conf, conf.getPartitionerClass());
conf.setPartitionerClass(PipesPartitioner.class);

代码示例来源:origin: com.aliyun.hbase/alihbase-mapreduce

/**
* @see org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil#addDependencyJars(org.apache.hadoop.mapreduce.Job)
*/
public static void addDependencyJars(JobConf job) throws IOException {
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addHBaseDependencyJars(job);
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addDependencyJarsForClasses(
job,
job.getMapOutputKeyClass(),
job.getMapOutputValueClass(),
job.getOutputKeyClass(),
job.getOutputValueClass(),
job.getPartitionerClass(),
job.getClass("mapred.input.format.class", TextInputFormat.class, InputFormat.class),
job.getClass("mapred.output.format.class", TextOutputFormat.class, OutputFormat.class),
job.getCombinerClass());
}
}

代码示例来源:origin: org.apache.hbase/hbase-mapreduce

/**
* @see org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil#addDependencyJars(org.apache.hadoop.mapreduce.Job)
*/
public static void addDependencyJars(JobConf job) throws IOException {
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addHBaseDependencyJars(job);
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addDependencyJarsForClasses(
job,
job.getMapOutputKeyClass(),
job.getMapOutputValueClass(),
job.getOutputKeyClass(),
job.getOutputValueClass(),
job.getPartitionerClass(),
job.getClass("mapred.input.format.class", TextInputFormat.class, InputFormat.class),
job.getClass("mapred.output.format.class", TextOutputFormat.class, OutputFormat.class),
job.getCombinerClass());
}
}

代码示例来源:origin: harbby/presto-connectors

/**
* @see org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil#addDependencyJars(org.apache.hadoop.mapreduce.Job)
*/
public static void addDependencyJars(JobConf job) throws IOException {
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addHBaseDependencyJars(job);
org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil.addDependencyJars(
job,
// when making changes here, consider also mapreduce.TableMapReduceUtil
// pull job classes
job.getMapOutputKeyClass(),
job.getMapOutputValueClass(),
job.getOutputKeyClass(),
job.getOutputValueClass(),
job.getPartitionerClass(),
job.getClass("mapred.input.format.class", TextInputFormat.class, InputFormat.class),
job.getClass("mapred.output.format.class", TextOutputFormat.class, OutputFormat.class),
job.getCombinerClass());
}
}

推荐阅读
  • 本文介绍了解决java开源项目apache commons email简单使用报错的方法,包括使用正确的JAR包和正确的代码配置,以及相关参数的设置。详细介绍了如何使用apache commons email发送邮件。 ... [详细]
  • 大数据Hadoop生态(20)MapReduce框架原理OutputFormat的开发笔记
    本文介绍了大数据Hadoop生态(20)MapReduce框架原理OutputFormat的开发笔记,包括outputFormat接口实现类、自定义outputFormat步骤和案例。案例中将包含nty的日志输出到nty.log文件,其他日志输出到other.log文件。同时提供了一些相关网址供参考。 ... [详细]
  • 本文分享了一个关于在C#中使用异步代码的问题,作者在控制台中运行时代码正常工作,但在Windows窗体中却无法正常工作。作者尝试搜索局域网上的主机,但在窗体中计数器没有减少。文章提供了相关的代码和解决思路。 ... [详细]
  • 本文介绍了在Win10上安装WinPythonHadoop的详细步骤,包括安装Python环境、安装JDK8、安装pyspark、安装Hadoop和Spark、设置环境变量、下载winutils.exe等。同时提醒注意Hadoop版本与pyspark版本的一致性,并建议重启电脑以确保安装成功。 ... [详细]
  • HDFS2.x新特性
    一、集群间数据拷贝scp实现两个远程主机之间的文件复制scp-rhello.txtroothadoop103:useratguiguhello.txt推pushscp-rr ... [详细]
  • Struts2+Sring+Hibernate简单配置
    2019独角兽企业重金招聘Python工程师标准Struts2SpringHibernate搭建全解!Struts2SpringHibernate是J2EE的最 ... [详细]
  • Hadoop2.6.0 + 云centos +伪分布式只谈部署
    3.0.3玩不好,现将2.6.0tar.gz上传到usr,chmod-Rhadoop:hadophadoop-2.6.0,rm掉3.0.32.在etcp ... [详细]
  • 本文由编程笔记#小编为大家整理,主要介绍了logistic回归(线性和非线性)相关的知识,包括线性logistic回归的代码和数据集的分布情况。希望对你有一定的参考价值。 ... [详细]
  • Go GUIlxn/walk 学习3.菜单栏和工具栏的具体实现
    本文介绍了使用Go语言的GUI库lxn/walk实现菜单栏和工具栏的具体方法,包括消息窗口的产生、文件放置动作响应和提示框的应用。部分代码来自上一篇博客和lxn/walk官方示例。文章提供了学习GUI开发的实际案例和代码示例。 ... [详细]
  • 本文介绍了机器学习手册中关于日期和时区操作的重要性以及其在实际应用中的作用。文章以一个故事为背景,描述了学童们面对老先生的教导时的反应,以及上官如在这个过程中的表现。同时,文章也提到了顾慎为对上官如的恨意以及他们之间的矛盾源于早年的结局。最后,文章强调了日期和时区操作在机器学习中的重要性,并指出了其在实际应用中的作用和意义。 ... [详细]
  • WhenIusepythontoapplythepymysqlmoduletoaddafieldtoatableinthemysqldatabase,itdo ... [详细]
  • 开发笔记:spring boot项目打成war包部署到服务器的步骤与注意事项
    本文介绍了将spring boot项目打成war包并部署到服务器的步骤与注意事项。通过本文的学习,读者可以了解到如何将spring boot项目打包成war包,并成功地部署到服务器上。 ... [详细]
  • OpenMap教程4 – 图层概述
    本文介绍了OpenMap教程4中关于地图图层的内容,包括将ShapeLayer添加到MapBean中的方法,OpenMap支持的图层类型以及使用BufferedLayer创建图像的MapBean。此外,还介绍了Layer背景标志的作用和OMGraphicHandlerLayer的基础层类。 ... [详细]
  • mapreduce源码分析总结
    这篇文章总结的非常到位,故而转之一MapReduce概述MapReduce是一个用于大规模数据处理的分布式计算模型,它最初是由Google工程师设计并实现的ÿ ... [详细]
  • 本文整理了Java中org.apache.hadoop.hbase.client.Increment.getDurability()方法的一些代码示例,展示了 ... [详细]
author-avatar
于权drawing
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有