热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Hadoop学习之MapReduce执行过程详解

转自:http:my.oschina.netitblogblog275294分析MapReduce执行过程MapReduce运行的时候,会通过Mapper运行的任务读取HDFS中的

转自:http://my.oschina.net/itblog/blog/275294

分析MapReduce执行过程

    MapReduce运行的时候,会通过Mapper运行的任务读取HDFS中的数据文件,然后调用自己的方法,处理数据,最后输出。Reducer任务会接收Mapper任务输出的数据,作为自己的输入数据,调用自己的方法,最后输出到HDFS的文件中。整个流程如图:

技术分享

Mapper任务的执行过程详解

每个Mapper任务是一个java进程,它会读取HDFS中的文件,解析成很多的键值对,经过我们覆盖的map方法处理后,转换为很多的键值对再输出。整个Mapper任务的处理过程又可以分为以下几个阶段,如图所示。

技术分享

在上图中,把Mapper任务的运行过程分为六个阶段。

  1. 第一阶段是把输入文件按照一定的标准分片(InputSplit),每个输入片的大小是固定的。默认情况下,输入片(InputSplit)的大小与数据块(Block)的大小是相同的。如果数据块(Block)的大小是默认值64MB,输入文件有两个,一个是32MB,一个是72MB。那么小的文件是一个输入片,大文件会分为两个数据块,那么是两个输入片。一共产生三个输入片。每一个输入片由一个Mapper进程处理。这里的三个输入片,会有三个Mapper进程处理。

  2. 第二阶段是对输入片中的记录按照一定的规则解析成键值对。有个默认规则是把每一行文本内容解析成键值对。“键”是每一行的起始位置(单位是字节),“值”是本行的文本内容。

  3. 第三阶段是调用Mapper类中的map方法。第二阶段中解析出来的每一个键值对,调用一次map方法。如果有1000个键值对,就会调用1000次map方法。每一次调用map方法会输出零个或者多个键值对。

  4. 第四阶段是按照一定的规则对第三阶段输出的键值对进行分区。比较是基于键进行的。比如我们的键表示省份(如北京、上海、山东等),那么就可以按照不同省份进行分区,同一个省份的键值对划分到一个区中。默认是只有一个区分区的数量就是Reducer任务运行的数量。默认只有一个Reducer任务。

  5. 第五阶段是对每个分区中的键值对进行排序。首先,按照键进行排序,对于键相同的键值对,按照值进行排序。比如三个键值对<2,2>、<1,3>、<2,1>,键和值分别是整数。那么排序后的结果是<1,3>、<2,1>、<2,2>。如果有第六阶段,那么进入第六阶段;如果没有,直接输出到本地的linux文件中。

  6. 第六阶段是对数据进行归约处理,也就是reduce处理。键相等的键值对会调用一次reduce方法。经过这一阶段,数据量会减少。归约后的数据输出到本地的linxu文件中。本阶段默认是没有的,需要用户自己增加这一阶段的代码

Reducer任务的执行过程详解

每个Reducer任务是一个java进程。Reducer任务接收Mapper任务的输出,归约处理后写入到HDFS中,可以分为如下图所示的几个阶段。

技术分享

  1. 第一阶段是Reducer任务会主动从Mapper任务复制其输出的键值对。Mapper任务可能会有很多,因此Reducer会复制多个Mapper的输出。

  2. 第二阶段是把复制到Reducer本地数据,全部进行合并,即把分散的数据合并成一个大的数据。再对合并后的数据排序。

  3. 第三阶段是对排序后的键值对调用reduce方法。键相等的键值对调用一次reduce方法,每次调用会产生零个或者多个键值对。最后把这些输出的键值对写入到HDFS文件中。

在整个MapReduce程序的开发过程中,我们最大的工作量是覆盖map函数和覆盖reduce函数。

键值对的编号

在对Mapper任务、Reducer任务的分析过程中,会看到很多阶段都出现了键值对,读者容易混淆,所以这里对键值对进行编号,方便大家理解键值对的变化情况,如下图所示。

技术分享

在上图中,对于Mapper任务输入的键值对,定义为key1和value1。在map方法中处理后,输出的键值对,定义为key2和value2。reduce方法接收key2和value2,处理后,输出key3和value3。在下文讨论键值对时,可能把key1和value1简写为,key2和value2简写为,key3和value3简写为

2014010114
2014010216
2014010317
2014010410
2014010506
2012010609
2012010732
2012010812
2012010919
2012011023
2001010116
2001010212
2001010310
2001010411
2001010529
2013010619
2013010722
2013010812
2013010929
2013011023
2008010105
2008010216
2008010337
2008010414
2008010516
2007010619
2007010712
2007010812
2007010999
2007011023
2010010114
2010010216
2010010317
2010010410
2010010506
2015010649
2015010722
2015010812
2015010999
2015011023

比如:2010012325表示在2010年01月23日的气温为25度。现在要求使用MapReduce,计算每一年出现过的最大气温。

    在写代码之前,先确保正确的导入了相关的jar包,我使用的是maven,可以到http://mvnrepository.com去搜索这几个artifactId。

    此程序需要以Hadoop文件作为输入文件,以Hadoop文件作为输出文件,因此需要用到文件系统,于是需要引入hadoop-hdfs包;我们需要向Map-Reduce集群提交任务,需要用到Map-Reduce的客户端,于是需要导入hadoop-mapreduce-client-jobclient包;另外,在处理数据的时候会用到一些hadoop的数据类型例如IntWritable和Text等,因此需要导入hadoop-common包。于是运行此程序所需要的相关依赖有以下几个:

 1 <dependency>
 2     <groupId>org.apache.hadoopgroupId>
 3     <artifactId>hadoop-hdfsartifactId>
 4     <version>2.4.0version>
 5 dependency>
 6 <dependency>
 7     <groupId>org.apache.hadoopgroupId>
 8     <artifactId>hadoop-mapreduce-client-jobclientartifactId>
 9     <version>2.4.0version>
10 dependency>
11 <dependency>
12     <groupId>org.apache.hadoopgroupId>
13     <artifactId>hadoop-commonartifactId>
14     <version>2.4.0version>
15 dependency>
技术分享技术分享
  1 package com.abc.yarn;
  2  
  3 import java.io.IOException;
  4  
  5 import org.apache.hadoop.conf.Configuration;
  6 import org.apache.hadoop.fs.Path;
  7 import org.apache.hadoop.io.IntWritable;
  8 import org.apache.hadoop.io.LongWritable;
  9 import org.apache.hadoop.io.Text;
 10 import org.apache.hadoop.mapreduce.Job;
 11 import org.apache.hadoop.mapreduce.Mapper;
 12 import org.apache.hadoop.mapreduce.Reducer;
 13 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
 14 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
 15  
 16 public class Temperature {
 17     /**
 18      * 四个泛型类型分别代表:
 19      * KeyIn        Mapper的输入数据的Key,这里是每行文字的起始位置(0,11,...)
 20      * ValueIn      Mapper的输入数据的Value,这里是每行文字
 21      * KeyOut       Mapper的输出数据的Key,这里是每行文字中的“年份”
 22      * ValueOut     Mapper的输出数据的Value,这里是每行文字中的“气温”
 23      */
 24     static class TempMapper extends
 25             Mapper {
 26         @Override
 27         public void map(LongWritable key, Text value, Context context)
 28                 throws IOException, InterruptedException {
 29             // 打印样本: Before Mapper: 0, 2000010115
 30             System.out.print("Before Mapper: " + key + ", " + value);
 31             String line = value.toString();
 32             String year = line.substring(0, 4);
 33             int temperature = Integer.parseInt(line.substring(8));
 34             context.write(new Text(year), new IntWritable(temperature));
 35             // 打印样本: After Mapper:2000, 15
 36             System.out.println(
 37                     "======" +
 38                     "After Mapper:" + new Text(year) + ", " + new IntWritable(temperature));
 39         }
 40     }
 41  
 42     /**
 43      * 四个泛型类型分别代表:
 44      * KeyIn        Reducer的输入数据的Key,这里是每行文字中的“年份”
 45      * ValueIn      Reducer的输入数据的Value,这里是每行文字中的“气温”
 46      * KeyOut       Reducer的输出数据的Key,这里是不重复的“年份”
 47      * ValueOut     Reducer的输出数据的Value,这里是这一年中的“最高气温”
 48      */
 49     static class TempReducer extends
 50             Reducer {
 51         @Override
 52         public void reduce(Text key, Iterable values,
 53                 Context context) throws IOException, InterruptedException {
 54             int maxValue = Integer.MIN_VALUE;
 55             StringBuffer sb = new StringBuffer();
 56             //取values的最大值
 57             for (IntWritable value : values) {
 58                 maxValue = Math.max(maxValue, value.get());
 59                 sb.append(value).append(", ");
 60             }
 61             // 打印样本: Before Reduce: 2000, 15, 23, 99, 12, 22, 
 62             System.out.print("Before Reduce: " + key + ", " + sb.toString());
 63             context.write(key, new IntWritable(maxValue));
 64             // 打印样本: After Reduce: 2000, 99
 65             System.out.println(
 66                     "======" +
 67                     "After Reduce: " + key + ", " + maxValue);
 68         }
 69     }
 70  
 71     public static void main(String[] args) throws Exception {
 72         //输入路径
 73         String dst = "hdfs://localhost:9000/intput.txt";
 74         //输出路径,必须是不存在的,空文件加也不行。
 75         String dstOut = "hdfs://localhost:9000/output";
 76         Configuration hadoopCOnfig= new Configuration();
 77          
 78         hadoopConfig.set("fs.hdfs.impl", 
 79             org.apache.hadoop.hdfs.DistributedFileSystem.class.getName()
 80         );
 81         hadoopConfig.set("fs.file.impl",
 82             org.apache.hadoop.fs.LocalFileSystem.class.getName()
 83         );
 84         Job job = new Job(hadoopConfig);
 85          
 86         //如果需要打成jar运行,需要下面这句
 87         //job.setJarByClass(NewMaxTemperature.class);
 88  
 89         //job执行作业时输入和输出文件的路径
 90         FileInputFormat.addInputPath(job, new Path(dst));
 91         FileOutputFormat.setOutputPath(job, new Path(dstOut));
 92  
 93         //指定自定义的Mapper和Reducer作为两个阶段的任务处理类
 94         job.setMapperClass(TempMapper.class);
 95         job.setReducerClass(TempReducer.class);
 96          
 97         //设置最后输出结果的Key和Value的类型
 98         job.setOutputKeyClass(Text.class);
 99         job.setOutputValueClass(IntWritable.class);
100          
101         //执行job,直到完成
102         job.waitForCompletion(true);
103         System.out.println("Finished");
104     }
105 }
View Code

    上面代码中,注意Mapper类的泛型不是java的基本类型,而是Hadoop的数据类型Text、IntWritable。我们可以简单的等价为java的类String、int。

代码中Mapper类的泛型依次是。map方法的第二个形参是行文本内容,是我们关心的。核心代码是把行文本内容按照空格拆分,把每行数据中“年”和“气温”提取出来,其中“年”作为新的键,“温度”作为新的值,写入到上下文context中。在这里,因为每一年有多行数据,因此每一行都会输出一个<年份, 气温>键值对。

下面是控制台打印结果:

 1 Before Mapper: 0, 2014010114======After Mapper:2014, 14
 2 Before Mapper: 11, 2014010216======After Mapper:2014, 16
 3 Before Mapper: 22, 2014010317======After Mapper:2014, 17
 4 Before Mapper: 33, 2014010410======After Mapper:2014, 10
 5 Before Mapper: 44, 2014010506======After Mapper:2014, 6
 6 Before Mapper: 55, 2012010609======After Mapper:2012, 9
 7 Before Mapper: 66, 2012010732======After Mapper:2012, 32
 8 Before Mapper: 77, 2012010812======After Mapper:2012, 12
 9 Before Mapper: 88, 2012010919======After Mapper:2012, 19
10 Before Mapper: 99, 2012011023======After Mapper:2012, 23
11 Before Mapper: 110, 2001010116======After Mapper:2001, 16
12 Before Mapper: 121, 2001010212======After Mapper:2001, 12
13 Before Mapper: 132, 2001010310======After Mapper:2001, 10
14 Before Mapper: 143, 2001010411======After Mapper:2001, 11
15 Before Mapper: 154, 2001010529======After Mapper:2001, 29
16 Before Mapper: 165, 2013010619======After Mapper:2013, 19
17 Before Mapper: 176, 2013010722======After Mapper:2013, 22
18 Before Mapper: 187, 2013010812======After Mapper:2013, 12
19 Before Mapper: 198, 2013010929======After Mapper:2013, 29
20 Before Mapper: 209, 2013011023======After Mapper:2013, 23
21 Before Mapper: 220, 2008010105======After Mapper:2008, 5
22 Before Mapper: 231, 2008010216======After Mapper:2008, 16
23 Before Mapper: 242, 2008010337======After Mapper:2008, 37
24 Before Mapper: 253, 2008010414======After Mapper:2008, 14
25 Before Mapper: 264, 2008010516======After Mapper:2008, 16
26 Before Mapper: 275, 2007010619======After Mapper:2007, 19
27 Before Mapper: 286, 2007010712======After Mapper:2007, 12
28 Before Mapper: 297, 2007010812======After Mapper:2007, 12
29 Before Mapper: 308, 2007010999======After Mapper:2007, 99
30 Before Mapper: 319, 2007011023======After Mapper:2007, 23
31 Before Mapper: 330, 2010010114======After Mapper:2010, 14
32 Before Mapper: 341, 2010010216======After Mapper:2010, 16
33 Before Mapper: 352, 2010010317======After Mapper:2010, 17
34 Before Mapper: 363, 2010010410======After Mapper:2010, 10
35 Before Mapper: 374, 2010010506======After Mapper:2010, 6
36 Before Mapper: 385, 2015010649======After Mapper:2015, 49
37 Before Mapper: 396, 2015010722======After Mapper:2015, 22
38 Before Mapper: 407, 2015010812======After Mapper:2015, 12
39 Before Mapper: 418, 2015010999======After Mapper:2015, 99
40 Before Mapper: 429, 2015011023======After Mapper:2015, 23
41 Before Reduce: 2001, 12, 10, 11, 29, 16, ======After Reduce: 2001, 29
42 Before Reduce: 2007, 23, 19, 12, 12, 99, ======After Reduce: 2007, 99
43 Before Reduce: 2008, 16, 14, 37, 16, 5, ======After Reduce: 2008, 37
44 Before Reduce: 2010, 10, 6, 14, 16, 17, ======After Reduce: 2010, 17
45 Before Reduce: 2012, 19, 12, 32, 9, 23, ======After Reduce: 2012, 32
46 Before Reduce: 2013, 23, 29, 12, 22, 19, ======After Reduce: 2013, 29
47 Before Reduce: 2014, 14, 6, 10, 17, 16, ======After Reduce: 2014, 17
48 Before Reduce: 2015, 23, 49, 22, 12, 99, ======After Reduce: 2015, 99
对分析的验证

    从打印的日志中可以看出:

  • Mapper的输入数据(k1,v1)格式是:默认的按行分的键值对<0, 2010012325>,<11, 2012010123>...

  • Reducer的输入数据格式是:把相同的键合并后的键值对:<2001, [12, 32, 25...]>,<2007, [20, 34, 30...]>...

  • Reducer的输出数(k3,v3)据格式是:经自己在Reducer中写出的格式:<2001, 32>,<2007, 34>...

    其中,由于输入数据太小,Map过程的第1阶段这里不能证明。但事实上是这样的。

    结论中第一点验证了Map过程的第2阶段:“键”是每一行的起始位置(单位是字节),“值”是本行的文本内容。

    另外,通过Reduce的几行

1 Before Reduce: 2001, 12, 10, 11, 29, 16, ======After Reduce: 2001, 29
2 Before Reduce: 2007, 23, 19, 12, 12, 99, ======After Reduce: 2007, 99
3 Before Reduce: 2008, 16, 14, 37, 16, 5, ======After Reduce: 2008, 37
4 Before Reduce: 2010, 10, 6, 14, 16, 17, ======After Reduce: 2010, 17
5 Before Reduce: 2012, 19, 12, 32, 9, 23, ======After Reduce: 2012, 32
6 Before Reduce: 2013, 23, 29, 12, 22, 19, ======After Reduce: 2013, 29
7 Before Reduce: 2014, 14, 6, 10, 17, 16, ======After Reduce: 2014, 17
8 Before Reduce: 2015, 23, 49, 22, 12, 99, ======After Reduce: 2015, 99

可以证实Map过程的第4阶段:先分区,然后对每个分区都执行一次Reduce(Map过程第6阶段)。对于Mapper的输出,前文中提到:如果没有Reduce过程,Mapper的输出会直接写入文件。于是我们把Reduce方法去掉(注释掉第95行即可)。再执行,下面是控制台打印结果: 

技术分享技术分享
 1 Before Mapper: 0, 2014010114======After Mapper:2014, 14
 2 Before Mapper: 11, 2014010216======After Mapper:2014, 16
 3 Before Mapper: 22, 2014010317======After Mapper:2014, 17
 4 Before Mapper: 33, 2014010410======After Mapper:2014, 10
 5 Before Mapper: 44, 2014010506======After Mapper:2014, 6
 6 Before Mapper: 55, 2012010609======After Mapper:2012, 9
 7 Before Mapper: 66, 2012010732======After Mapper:2012, 32
 8 Before Mapper: 77, 2012010812======After Mapper:2012, 12
 9 Before Mapper: 88, 2012010919======After Mapper:2012, 19
10 Before Mapper: 99, 2012011023======After Mapper:2012, 23
11 Before Mapper: 110, 2001010116======After Mapper:2001, 16
12 Before Mapper: 121, 2001010212======After Mapper:2001, 12
13 Before Mapper: 132, 2001010310======After Mapper:2001, 10
14 Before Mapper: 143, 2001010411======After Mapper:2001, 11
15 Before Mapper: 154, 2001010529======After Mapper:2001, 29
16 Before Mapper: 165, 2013010619======After Mapper:2013, 19
17 Before Mapper: 176, 2013010722======After Mapper:2013, 22
18 Before Mapper: 187, 2013010812======After Mapper:2013, 12
19 Before Mapper: 198, 2013010929======After Mapper:2013, 29
20 Before Mapper: 209, 2013011023======After Mapper:2013, 23
21 Before Mapper: 220, 2008010105======After Mapper:2008, 5
22 Before Mapper: 231, 2008010216======After Mapper:2008, 16
23 Before Mapper: 242, 2008010337======After Mapper:2008, 37
24 Before Mapper: 253, 2008010414======After Mapper:2008, 14
25 Before Mapper: 264, 2008010516======After Mapper:2008, 16
26 Before Mapper: 275, 2007010619======After Mapper:2007, 19
27 Before Mapper: 286, 2007010712======After Mapper:2007, 12
28 Before Mapper: 297, 2007010812======After Mapper:2007, 12
29 Before Mapper: 308, 2007010999======After Mapper:2007, 99
30 Before Mapper: 319, 2007011023======After Mapper:2007, 23
31 Before Mapper: 330, 2010010114======After Mapper:2010, 14
32 Before Mapper: 341, 2010010216======After Mapper:2010, 16
33 Before Mapper: 352, 2010010317======After Mapper:2010, 17
34 Before Mapper: 363, 2010010410======After Mapper:2010, 10
35 Before Mapper: 374, 2010010506======After Mapper:2010, 6
36 Before Mapper: 385, 2015010649======After Mapper:2015, 49
37 Before Mapper: 396, 2015010722======After Mapper:2015, 22
38 Before Mapper: 407, 2015010812======After Mapper:2015, 12
39 Before Mapper: 418, 2015010999======After Mapper:2015, 99
40 Before Mapper: 429, 2015011023======After Mapper:2015, 23
41 Finished
View Code

再来看看执行结果:

技术分享

    结果还有很多行,没有截图了。

    由于没有执行Reduce操作,因此这个就是Mapper输出的中间文件的内容了。

    从打印的日志可以看出:

 

  • Mapper的输出数据(k2, v2)格式是:经自己在Mapper中写出的格式:<2010, 25>,<2012, 23>...

    从这个结果中可以看出,原数据文件中的每一行确实都有一行输出,那么Map过程的第3阶段就证实了。

    从这个结果中还可以看出,“年份”已经不是输入给Mapper的顺序了,这也说明了在Map过程中也按照Key执行了排序操作,即Map过程的第5阶段

Hadoop学习之MapReduce执行过程详解


推荐阅读
  • 深入理解CSS中的margin属性及其应用场景
    本文主要介绍了CSS中的margin属性及其应用场景,包括垂直外边距合并、padding的使用时机、行内替换元素与费替换元素的区别、margin的基线、盒子的物理大小、显示大小、逻辑大小等知识点。通过深入理解这些概念,读者可以更好地掌握margin的用法和原理。同时,文中提供了一些相关的文档和规范供读者参考。 ... [详细]
  • 本文讨论了Alink回归预测的不完善问题,指出目前主要针对Python做案例,对其他语言支持不足。同时介绍了pom.xml文件的基本结构和使用方法,以及Maven的相关知识。最后,对Alink回归预测的未来发展提出了期待。 ... [详细]
  • Mac OS 升级到11.2.2 Eclipse打不开了,报错Failed to create the Java Virtual Machine
    本文介绍了在Mac OS升级到11.2.2版本后,使用Eclipse打开时出现报错Failed to create the Java Virtual Machine的问题,并提供了解决方法。 ... [详细]
  • 知识图谱——机器大脑中的知识库
    本文介绍了知识图谱在机器大脑中的应用,以及搜索引擎在知识图谱方面的发展。以谷歌知识图谱为例,说明了知识图谱的智能化特点。通过搜索引擎用户可以获取更加智能化的答案,如搜索关键词"Marie Curie",会得到居里夫人的详细信息以及与之相关的历史人物。知识图谱的出现引起了搜索引擎行业的变革,不仅美国的微软必应,中国的百度、搜狗等搜索引擎公司也纷纷推出了自己的知识图谱。 ... [详细]
  • 本文详细介绍了Linux中进程控制块PCBtask_struct结构体的结构和作用,包括进程状态、进程号、待处理信号、进程地址空间、调度标志、锁深度、基本时间片、调度策略以及内存管理信息等方面的内容。阅读本文可以更加深入地了解Linux进程管理的原理和机制。 ... [详细]
  • 《数据结构》学习笔记3——串匹配算法性能评估
    本文主要讨论串匹配算法的性能评估,包括模式匹配、字符种类数量、算法复杂度等内容。通过借助C++中的头文件和库,可以实现对串的匹配操作。其中蛮力算法的复杂度为O(m*n),通过随机取出长度为m的子串作为模式P,在文本T中进行匹配,统计平均复杂度。对于成功和失败的匹配分别进行测试,分析其平均复杂度。详情请参考相关学习资源。 ... [详细]
  • 本文介绍了通过ABAP开发往外网发邮件的需求,并提供了配置和代码整理的资料。其中包括了配置SAP邮件服务器的步骤和ABAP写发送邮件代码的过程。通过RZ10配置参数和icm/server_port_1的设定,可以实现向Sap User和外部邮件发送邮件的功能。希望对需要的开发人员有帮助。摘要长度:184字。 ... [详细]
  • 猜字母游戏
    猜字母游戏猜字母游戏——设计数据结构猜字母游戏——设计程序结构猜字母游戏——实现字母生成方法猜字母游戏——实现字母检测方法猜字母游戏——实现主方法1猜字母游戏——设计数据结构1.1 ... [详细]
  • CentOS 7部署KVM虚拟化环境之一架构介绍
    本文介绍了CentOS 7部署KVM虚拟化环境的架构,详细解释了虚拟化技术的概念和原理,包括全虚拟化和半虚拟化。同时介绍了虚拟机的概念和虚拟化软件的作用。 ... [详细]
  • 本文介绍了一道网络流题目hdu4888 Redraw Beautiful Drawings的解题思路。题目要求以行和列作为结点建图,并通过最大流算法判断是否有解以及是否唯一。文章详细介绍了建图和算法的过程,并强调在dfs过程中要进行回溯。 ... [详细]
  • 本文介绍了数据库的存储结构及其重要性,强调了关系数据库范例中将逻辑存储与物理存储分开的必要性。通过逻辑结构和物理结构的分离,可以实现对物理存储的重新组织和数据库的迁移,而应用程序不会察觉到任何更改。文章还展示了Oracle数据库的逻辑结构和物理结构,并介绍了表空间的概念和作用。 ... [详细]
  • HDU 2372 El Dorado(DP)的最长上升子序列长度求解方法
    本文介绍了解决HDU 2372 El Dorado问题的一种动态规划方法,通过循环k的方式求解最长上升子序列的长度。具体实现过程包括初始化dp数组、读取数列、计算最长上升子序列长度等步骤。 ... [详细]
  • HDFS2.x新特性
    一、集群间数据拷贝scp实现两个远程主机之间的文件复制scp-rhello.txtroothadoop103:useratguiguhello.txt推pushscp-rr ... [详细]
  • PDO MySQL
    PDOMySQL如果文章有成千上万篇,该怎样保存?数据保存有多种方式,比如单机文件、单机数据库(SQLite)、网络数据库(MySQL、MariaDB)等等。根据项目来选择,做We ... [详细]
  • 本文介绍了在sqoop1.4.*版本中,如何实现自定义分隔符的方法及步骤。通过修改sqoop生成的java文件,并重新编译,可以满足实际开发中对分隔符的需求。具体步骤包括修改java文件中的一行代码,重新编译所需的hadoop包等。详细步骤和编译方法在本文中都有详细说明。 ... [详细]
author-avatar
f蓝色基因__987
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有