热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

一文读懂MapReduce附流量解析实例

1.MapReduce是什么HadoopMapReduce是一个软件框架,基于该框架能够容易地编写应用程序,这些应用程序能够运行在由上千个商用机器组成的大集群上,并以一种可靠的,具

1.MapReduce是什么

     Hadoop MapReduce是一个软件框架,基于该框架能够容易地编写应用程序,这些应用程序能够运行在由上千个商用机器组成的大集群上,并以一种可靠的,具有容错能力的方式并行地处理上TB级别的海量数据集。这个定义里面有着这些关键词,

一是软件框架,二是并行处理,三是可靠且容错,四是大规模集群,五是海量数据集。

2 MapReduce做什么

     MapReduce擅长处理大数据,它为什么具有这种能力呢?这可由MapReduce的设计思想发觉。MapReduce的思想就是“分而治之”。

  (1)Mapper负责“分”,即把复杂的任务分解为若干个“简单的任务”来处理。“简单的任务”包含三层含义:

一是数据或计算的规模相对原任务要大大缩小;二是就近计算原则,即任务会分配到存放着所需数据的节点上进行计算;三是这些小任务可以并行计算,彼此间几乎没有依赖关系。

  (2)Reducer负责对map阶段的结果进行汇总。至于需要多少个Reducer,用户可以根据具体问题,通过在mapred-site.xml配置文件里设置参数mapred.reduce.tasks的值,缺省值为1。

一个比较形象的语言解释MapReduce:  

我们要数图书馆中的所有书。你数1号书架,我数2号书架。这就是“Map”。我们人越多,数书就更快。 现在我们到一起,把所有人的统计数加在一起。这就是“Reduce”。

MapReduce流程

  • inputFormat 先通过inputFormat 读进来
  • InputSplit 然后通过split进行分片
  • RecordReaders 简称RR 通过 recordReader读取切片
  • map map处理 输出个临时结果
  • Combiner 本机先做一次reduce 减少io 提升作业执行性能,但是也有缺点,如果做全局平均数 等就不准了
  • shuffing - partitioner shuffing分发
  • shuffing - sort shuffing排序
  • reduce
  • OutputFormat 最终输出

MapReduce的输入输出

  MapReduce框架运转在键值对上,也就是说,框架把作业的输入看成是一组键值对,同样也产生一组键值对作为作业的输出,这两组键值对有可能是不同的。

  一个MapReduce作业的输入和输出类型如下图所示:可以看出在整个流程中,会有三组键值对类型的存在。技术图片

MapReduce的处理流程

  这里以WordCount单词计数为例,介绍map和reduce两个阶段需要进行哪些处理。单词计数主要完成的功能是:统计一系列文本文件中每个单词出现的次数,如图所示技术图片
技术图片

编写一个简单的 WordCount mapReduce 脚本

编写map脚本

//继承mapper类
/**
 *  KEYIN, Map任务读数据的key类型,offset,是每行数据起始位置的偏移量 Long
 *  VALUEIN,  Map任务读取数据的 value类型  就是一行行字符串 String
 *  KEYOUT,   map方法自定义实现输出key类型
 *  VALUEOUT  map方法自定义实现输出value类型
 *
 *  hello world welcome
 *  hello welcome
 *  keyout  String  valueout  int
 *  (world,1)
 *  hadoop 会有自定义类型  支持序列化和反序列化
 */
public class WordCountMapper extends Mapper {
    //自定义map 把自己需要的数据截取出来 然后交给后续步骤来做
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        //多个单词用 空格拆开
        String[] words = value.toString().split("-");
        for(String word:words) {
            context.write(new Text(word),new IntWritable(1));
        }
    }
}

编写Reduce

/**
 * Reduce 的输入是map的输出
 *  KEYIN, VALUEIN, KEYOUT, VALUEOUT 输入是 word,1  输出是 word,3  都是 string,int
 */
public class WordCountReduce extends Reducer {
    /**
     *
     * @param key  对应的单词
     * @param values  可以迭代的value 相同的key都会分发到一个reduce上面去 类似于  (hello,<1,1,1,1>)
     * @param context
     * @throws IOException
     * @throws InterruptedException
     */
    @Override
    protected void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException {
        int count = 0;
        Iterator iterator = values.iterator();
        while(iterator.hasNext()) {
            IntWritable value = iterator.next();
            //累加
            count += value.get();
        }
        context.write(key,new IntWritable(count));
    }
}

创建Job 运行

 //windows需要设置 hadoop.home.dir
    System.setProperty("hadoop.home.dir", "D:\\javaroot\\soft\\hadoop-2.6.0-cdh5.15.1");

    //设置hadoop帐号
    System.setProperty("HADOOP_USER_NAME","hadoop");
    Configuration cOnfiguration= new Configuration();
    configuration.set("fs.defaultFS","hdfs://192.168.1.100:8020");

   //提交个作业
    Job job = Job.getInstance(configuration);
    //设置job对应的主类
    job.setJarByClass(App.class);
     //添加 Combiner
    job.setCombinerClass(WordCountReduce.class);
    //设置自定义的mapper类型
    job.setMapperClass(WordCountMapper.class);
    job.setReducerClass(WordCountReduce.class);

    //设置输出类型
    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(IntWritable.class);

    //设置reduce输出
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);

    //设置输入和输出的路径
    FileInputFormat.setInputPaths(job, new Path("/demo/wordcount/input"));
    FileOutputFormat.setOutputPath(job,new Path("/demo/wordcount/output"));

    //提交job
    boolean res  = job.waitForCompletion(true);
   System.exit(res ? 0 :1);

实例:解析流量日志 算出每个手机号 上行和下行的流量和总流量

数据log

1363157985066 	13726230503	00-FD-07-A4-72-B8:CMCC	120.196.100.82	i02.c.aliimg.com		24	27	2481	24681	200
1363157995052 	13826544101	5C-0E-8B-C7-F1-E0:CMCC	120.197.40.4			4	0	264	0	200
1363157991076 	13926435656	20-10-7A-28-CC-0A:CMCC	120.196.100.99			2	4	132	1512	200
1363154400022 	13926251106	5C-0E-8B-8B-B1-50:CMCC	120.197.40.4			4	0	240	0	200
1363157993044 	18211575961	94-71-AC-CD-E6-18:CMCC-EASY	120.196.100.99	iface.qiyi.com	视频网站	15	12	1527	2106	200
1363157995074 	84138413	5C-0E-8B-8C-E8-20:7DaysInn	120.197.40.4	122.72.52.12		20	16	4116	1432	200
1363157993055 	13560439658	C4-17-FE-BA-DE-D9:CMCC	120.196.100.99			18	15	1116	954	200
1363157995033 	15920133257	5C-0E-8B-C7-BA-20:CMCC	120.197.40.4	sug.so.360.cn	信息安全	20	20	3156	2936	200
1363157983019 	13719199419	68-A1-B7-03-07-B1:CMCC-EASY	120.196.100.82			4	0	240	0	200
1363157984041 	13660577991	5C-0E-8B-92-5C-20:CMCC-EASY	120.197.40.4	s19.cnzz.com	站点统计	24	9	6960	690	200
1363157973098 	15013685858	5C-0E-8B-C7-F7-90:CMCC	120.197.40.4	rank.ie.sogou.com	搜索引擎	28	27	3659	3538	200
1363157986029 	15989002119	E8-99-C4-4E-93-E0:CMCC-EASY	120.196.100.99	www.umeng.com	站点统计	3	3	1938	180	200
1363157992093 	13560439658	C4-17-FE-BA-DE-D9:CMCC	120.196.100.99			15	9	918	4938	200
1363157986041 	13480253104	5C-0E-8B-C7-FC-80:CMCC-EASY	120.197.40.4			3	3	180	180	200
1363157984040 	13602846565	5C-0E-8B-8B-B6-00:CMCC	120.197.40.4	2052.flash2-http.qq.com	综合门户	15	12	1938	2910	200
1363157995093 	13922314466	00-FD-07-A2-EC-BA:CMCC	120.196.100.82	img.qfc.cn		12	12	3008	3720	200
1363157982040 	13502468823	5C-0A-5B-6A-0B-D4:CMCC-EASY	120.196.100.99	y0.ifengimg.com	综合门户	57	102	7335	110349	200
1363157986072 	18320173382	84-25-DB-4F-10-1A:CMCC-EASY	120.196.100.99	input.shouji.sogou.com	搜索引擎	21	18	9531	2412	200
1363157990043 	13925057413	00-1F-64-E1-E6-9A:CMCC	120.196.100.55	t3.baidu.com	搜索引擎	69	63	11058	48243	200
1363157988072 	13760778710	00-FD-07-A4-7B-08:CMCC	120.196.100.82			2	2	120	120	200
1363157985066 	13726238888	00-FD-07-A4-72-B8:CMCC	120.196.100.82	i02.c.aliimg.com		24	27	2481	24681	200
1363157993055 	13560436666	C4-17-FE-BA-DE-D9:CMCC	120.196.100.99			18	15	1116	954	200
1363157985066 	13726238888	00-FD-07-A4-72-B8:CMCC	120.196.100.82	i02.c.aliimg.com		24	27	10000	20000	200
代码实现
//map类
public class AccessMapper extends Mapper {
    //把日志按切分 找到需要的三个字段
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        String[] lines = value.toString().split("\t");
        String phOne= lines[1];
        long up = Long.parseLong(lines[lines.length - 3]);
        long down = Long.parseLong(lines[lines.length - 2]);
        context.write(new Text(phone),new Access(phone,up,down,(up+down)));
    }
}

//reduce 类
public class AccessReduce extends Reducer {
    /**
     * @param key  手机号
     * @param values   Access
     * @param context
     * @throws IOException
     * @throws InterruptedException
     */
    @Override
    protected void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException {
        long ups = 0;
        long downs = 0;
        for (Access access:values) {
            ups += access.getUp();
            downs += access.getDown();
        }
        context.write(NullWritable.get(),new Access(key.toString(),ups,downs,(ups+downs)));
    }
}

//job 执行
  public static void main(String[] args) throws Exception {
    //windows需要设置 hadoop.home.dir
    System.setProperty("hadoop.home.dir", "D:\\javaroot\\soft\\hadoop-2.6.0-cdh5.15.1");
    //设置hadoop帐号
   // System.setProperty("HADOOP_USER_NAME","hadoop");
    Configuration cOnfiguration= new Configuration();
    //configuration.set("fs.defaultFS","hdfs://192.168.1.100:8020");
    Job job = Job.getInstance(configuration);
    job.setJarByClass(App.class);
    job.setMapperClass(AccessMapper.class);
    job.setReducerClass(AccessReduce.class);
    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(Access.class);
    job.setOutputKeyClass(NullWritable.class);
    job.setOutputValueClass(Access.class);
    //设置输入和输出的路径
    FileInputFormat.setInputPaths(job, new Path("input"));
    FileOutputFormat.setOutputPath(job,new Path("output"));
    //提交job
    boolean res  = job.waitForCompletion(true);
    System.exit(res ? 0 :1);

}

最后执行结果

phOne=‘13480253104‘, up=180, down=180, sum=360
phOne=‘13502468823‘, up=7335, down=110349, sum=117684
phOne=‘13560436666‘, up=1116, down=954, sum=2070
phOne=‘13560439658‘, up=2034, down=5892, sum=7926
phOne=‘13602846565‘, up=1938, down=2910, sum=4848
phOne=‘13660577991‘, up=6960, down=690, sum=7650
phOne=‘13719199419‘, up=240, down=0, sum=240
phOne=‘13726230503‘, up=2481, down=24681, sum=27162
phOne=‘13726238888‘, up=12481, down=44681, sum=57162
phOne=‘13760778710‘, up=120, down=120, sum=240
phOne=‘13826544101‘, up=264, down=0, sum=264
phOne=‘13922314466‘, up=3008, down=3720, sum=6728
phOne=‘13925057413‘, up=11058, down=48243, sum=59301
phOne=‘13926251106‘, up=240, down=0, sum=240
phOne=‘13926435656‘, up=132, down=1512, sum=1644
phOne=‘15013685858‘, up=3659, down=3538, sum=7197
phOne=‘15920133257‘, up=3156, down=2936, sum=6092
phOne=‘15989002119‘, up=1938, down=180, sum=2118
phOne=‘18211575961‘, up=1527, down=2106, sum=3633
phOne=‘18320173382‘, up=9531, down=2412, sum=11943
phOne=‘84138413‘, up=4116, down=1432, sum=5548

一文读懂MapReduce 附流量解析实例


推荐阅读
  • 微软推出Windows Terminal Preview v0.10
    微软近期发布了Windows Terminal Preview v0.10,用户可以在微软商店或GitHub上获取这一更新。该版本在2月份发布的v0.9基础上,新增了鼠标输入和复制Pane等功能。 ... [详细]
  • 如果应用程序经常播放密集、急促而又短暂的音效(如游戏音效)那么使用MediaPlayer显得有些不太适合了。因为MediaPlayer存在如下缺点:1)延时时间较长,且资源占用率高 ... [详细]
  • 网络爬虫的规范与限制
    本文探讨了网络爬虫引发的问题及其解决方案,重点介绍了Robots协议的作用和使用方法,旨在为网络爬虫的合理使用提供指导。 ... [详细]
  • 解决Parallels Desktop错误15265的方法
    本文详细介绍了在使用Parallels Desktop时遇到错误15265的多种解决方案,包括检查网络连接、关闭代理服务器和修改主机文件等步骤。 ... [详细]
  • 解决 Windows Server 2016 网络连接问题
    本文详细介绍了如何解决 Windows Server 2016 在使用无线网络 (WLAN) 和有线网络 (以太网) 时遇到的连接问题。包括添加必要的功能和安装正确的驱动程序。 ... [详细]
  • 在使用Eclipse进行调试时,如果遇到未解析的断点(unresolved breakpoint)并显示“未加载符号表,请使用‘file’命令加载目标文件以进行调试”的错误提示,这通常是因为调试器未能正确加载符号表。解决此问题的方法是通过GDB的`file`命令手动加载目标文件,以便调试器能够识别和解析断点。具体操作为在GDB命令行中输入 `(gdb) file `。这一步骤确保了调试环境能够正确访问和解析程序中的符号信息,从而实现有效的调试。 ... [详细]
  • LDAP服务器配置与管理
    本文介绍如何通过安装和配置SSSD服务来统一管理用户账户信息,并实现其他系统的登录调用。通过图形化交互界面配置LDAP服务器,确保用户账户信息的集中管理和安全访问。 ... [详细]
  • 本文详细介绍了如何解决DNS服务器配置转发无法解析的问题,包括编辑主配置文件和重启域名服务的具体步骤。 ... [详细]
  • 自定义滚动条美化页面内容
    当页面内容超出显示范围时,为了提升用户体验和页面美观,通常会添加滚动条。如果默认的浏览器滚动条无法满足设计需求,我们可以自定义一个符合要求的滚动条。本文将详细介绍自定义滚动条的实现过程。 ... [详细]
  • Framework7:构建跨平台移动应用的高效框架
    Framework7 是一个开源免费的框架,适用于开发混合移动应用(原生与HTML混合)或iOS&Android风格的Web应用。此外,它还可以作为原型开发工具,帮助开发者快速创建应用原型。 ... [详细]
  • 本文介绍了如何使用 CMD 批处理脚本进行文件操作,包括将指定目录下的 PHP 文件重命名为 HTML 文件,并将这些文件复制到另一个目录。 ... [详细]
  • 解决Bootstrap DataTable Ajax请求重复问题
    在最近的一个项目中,我们使用了JQuery DataTable进行数据展示,虽然使用起来非常方便,但在测试过程中发现了一个问题:当查询条件改变时,有时查询结果的数据不正确。通过FireBug调试发现,点击搜索按钮时,会发送两次Ajax请求,一次是原条件的请求,一次是新条件的请求。 ... [详细]
  • 第二十五天接口、多态
    1.java是面向对象的语言。设计模式:接口接口类是从java里衍生出来的,不是python原生支持的主要用于继承里多继承抽象类是python原生支持的主要用于继承里的单继承但是接 ... [详细]
  • CentOS 7 中 iptables 过滤表实例与 NAT 表应用详解
    在 CentOS 7 系统中,iptables 的过滤表和 NAT 表具有重要的应用价值。本文通过具体实例详细介绍了如何配置 iptables 的过滤表,包括编写脚本文件 `/usr/local/sbin/iptables.sh`,并使用 `iptables -F` 清空现有规则。此外,还深入探讨了 NAT 表的配置方法,帮助读者更好地理解和应用这些网络防火墙技术。 ... [详细]
  • 在 LeetCode 的“有效回文串 II”问题中,给定一个非空字符串 `s`,允许删除最多一个字符。本篇深入解析了如何判断删除一个字符后,字符串是否能成为回文串,并提出了高效的优化算法。通过详细的分析和代码实现,本文提供了多种解决方案,帮助读者更好地理解和应用这一算法。 ... [详细]
author-avatar
阳光碎了围脖_182
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有