热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Ubuntu下HadoopMapReduce集群搭建以及程序运行

记得上学期有门课程就是MapReduce,在顺利通过之后,还是决定好好整理一下,方便日后用到,同时也能跟大家分享交流一下。以下就是ubuntu下HadoopMapReduce集群环

记得上学期有门课程就是MapReduce,在顺利通过之后,还是决定好好整理一下,方便日后用到,同时也能跟大家分享交流一下。

具体的步骤和过程如下所示:

一、创建Hadoop用户

~$ sudo addgroup hadoop
~$ sudo adduser --ingroup hadoop hadoop
注:创建之后的用户还不具备admin权限,所以要给新创建的用户赋予admin权限

~$ sudo gedit /etc/sudoers
# Members of the admin group may gain root privileges
%admin ALL=(ALL) ALL
hadoop ALL=(ALL) ALL
这样,所创建的hadoop用户就拥有admin权限了。

注:以下操作,都是在hadoop用户下完成的。同时,集群中的每一台机器都要创建这样的Hadoop用户,并且都是在这样的用户下进行如下操作。
二、配置好JAVA环境

详细过程可以参考:http://blog.csdn.net/jojozhangju/article/details/19475835

注:每一台机器,都要配置好Java环境。不过,话说这部分我的集群上的集群是1个64位3个32位,而且一个是jdk1.7其它的多是openjdk,结果事实证明,没有问题出现。大家可以根据自己的实际情况进行调整。

三、修改/etc/hosts文件

~$ sudo gedit /etc/hosts

127.0.0.1 localhost
192.168.1.102 zhangju-ThinkPad-T420
192.168.1.107 jojo-Thinkpad-R60
192.168.1.100 ubuntu
192.168.1.104 zhaohui-ThinkPad-X230
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
集群中的每一台机器,都要填好以上的信息。这里需要强调的是,我们一开始是用无线路由器配置的,后来,证明速度有些慢,后来改成了网线,建议大家一开始就用网线固定IP地址的分配。
四、安装配置SSH

注:所有的集群上的机器都需要关闭防火墙:

~$ sudo ufw disable

~$ sudo apt-get install ssh这个安装完后,可以直接使用ssh命令了。 

执行

$ netstat -nat查看22端口是否开启了。 

测试:

ssh localhost
输入当前用户的密码,回车就ok了。说明安装成功,同时ssh登录需要密码。 

注:这种默认安装方式完后,默认配置文件是在/etc/ssh/目录下。sshd配置文件是:/etc/ssh/sshd_config,在所有机子都需要安装ssh。 
 
 
安装之后:

~$ cd /home/hadoop
~$ ssh-keygen -t rsa
然后一直回车,完成后,在home跟目录下会产生隐藏文件夹.ssh。

~$ cd .ssh
~$ ls
~$ cp id_rsa.pub authorized_keys
测试:

~$ ssh localhost

第一次ssh会有提示信息:

     The authenticity of host ‘node1 (10.64.56.76)’ can’t be established.

     RSA key fingerprint is 03:e0:30:cb:6e:13:a8:70:c9:7e:cf:ff:33:2a:67:30.

     Are you sure you want to continue connecting (yes/no)?

输入 yes 来继续。这会把该服务器添加到你的已知主机的列表中发现链接成功,并且无需密码。

复制authorized_keys到集群其他机器上,为了保证主节点可以无需密码自动登录到其他机器,先在其他机器上执行:

~$ su hadoop
~$ cd /home/hadoop
~$ ssh-keygen -t rsa
一路按回车

然后回到主节点,复制authorized_keys到其他集群的机器上:

~$ cd /home/hadoop/.ssh
~$ scp authorized_keys node1.2.3.....n:/home/hadoop/.ssh/
这里会提示输入密码,输入hadoop账号密码就可以了。 

改动authorized_keys 文件的许可权限 

~$ sudo chmod 644 authorized_keys测试:ssh node1.2.....n(第一次需要输入yes)。 

如果不须要输入密码则配置成功,如果还须要请检查上面的配置能不能正确。
五、安装Hadoop

~$ sudo wget http://apache.mirrors.tds.net//hadoop/common/hadoop-0.20.203.0/hadoop-0.20.203.0rc1.tar.gz下载安装包后,直接解压安装即可:  

~$ tar -zxvfhadoop-0.20.203.0rc1.tar.gz注意:

1.安装Hadoop集群通常要将安装软件解压到集群内的所有机器上。并且安装路径要一致,如果我们用HADOOP_HOME指代安装的根路径,通常,集群里的所有机器的HADOOP_HOME路径相同。

2.如果集群内机器的环境完全一样,可以在一台机器上配置好,然后把配置好的软件即hadoop-0.20.203整个   文件夹拷贝到其他机器的相同位置即可。

3.可以将Master上的Hadoop通过scp拷贝到每一个Slave相同的目录下,同时根据每一个Slave的Java_HOME 的不同修改其hadoop-env.sh 。

4.为了方便,使用hadoop命令或者start-all.sh等命令,修改Master上/etc/profile 新增以下内容: 

   export HADOOP_HOME=/home/hadoop/hadoop-0.20.203

   exportPATH=$PATH:$HADOOP_HOME/bin

   修改完毕后,执行source /etc/profile 来使其生效。 

六、集群配置
配置文件:

conf/core-site.xml






fs.default.name
hdfs://192.168.1.102:9000


hadoop.tmp.dir
/home/hadoop/tmp

conf/mapred-site.xml






mapred.job.tracker
192.168.1.102:9001


conf/hdfs-site.xml







dfs.replication

4

七、配置masters和slaves主从节点:
配置conf/masters和conf/slaves来设置主从结点,注意最好使用主机名,并且保证机器之间通过主机名可以互相访问,每个主机名一行。

~$ sudo gedit masterszhangju-ThinkPad-T420

~$ sudo gedit slavesjojo-Thinkpad-R60 

ubuntu 

zhangju-ThinkPad-T420 

zhaohui-ThinkPad-X230

最后,将hadoop文件夹拷贝到集群中的各个机器上:

~$ scp -r /home/hadoop/hadoop root@node1.2.....n: /home/hadoop/
八、Hadoop启动以及测试

~$ cd /home/hadoop/hadoop/bin
~$ hadoop namenode -format
成功情况下系统将输出类似如下信息:

12/02/06 00:46:50 INFO namenode.NameNode:STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = ubuntu/127.0.1.1
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 0.20.203.0
STARTUP_MSG: build =http://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20-security-203-r 1099333; compiled by ‘oom‘ on Wed May 4 07:57:50 PDT 2011
************************************************************/
12/02/0600:46:50 INFO namenode.FSNamesystem: fsOwner=root,root
12/02/06 00:46:50 INFO namenode.FSNamesystem:supergroup=supergroup
12/02/06 00:46:50 INFO namenode.FSNamesystem:isPermissiOnEnabled=true
12/02/06 00:46:50 INFO common.Storage: Imagefile of size 94 saved in 0 seconds.
12/02/06 00:46:50 INFO common.Storage: Storagedirectory /opt/hadoop/hadoopfs/name1 has been successfully formatted.
12/02/06 00:46:50 INFO common.Storage: Imagefile of size 94 saved in 0 seconds.
12/02/06 00:46:50 INFO common.Storage: Storagedirectory /opt/hadoop/hadoopfs/name2 has been successfully formatted.
12/02/06 00:46:50 INFO namenode.NameNode:SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode atv-jiwan-ubuntu-0/127.0.0.1
************************************************************/
启动服务:

~$ start-all.sh停止服务:

~$ stop-all.sh查看:

NameNode - http://node1:50070/

JobTracker - http://node1:50030/

如果操作正确,就会看到,集群的节点数,以及所有的相关信息显示。

九、运行实例

~$ cd /home/hadoop/hadoop/bin
~$ hadoop fs -mkdir input
~$ hadoop fs ls
~$ cd ..
~$ hadoop fs -put NOTICE.txt REDME.txt input
~$ hadoop fs -ls input
~$ hadoop jar hadoop-examples-1.0.4.jar wordcount input output

然后就可以看到map reduce的过程。

~$ hadoop fs -ls output
~$ hadoop fs -cat output/part-r-00000

就可以看到相关的程序结果了。 以上操作就是关于ubuntu上进行hadoop reduce集群的环境搭建,并且进行了测试和实例的运行,在这个基础上就可以进行mapreduce的学习编程和大数据的处理了。


推荐阅读
  • 本文介绍了使用Java实现大数乘法的分治算法,包括输入数据的处理、普通大数乘法的结果和Karatsuba大数乘法的结果。通过改变long类型可以适应不同范围的大数乘法计算。 ... [详细]
  • 本文讨论了如何优化解决hdu 1003 java题目的动态规划方法,通过分析加法规则和最大和的性质,提出了一种优化的思路。具体方法是,当从1加到n为负时,即sum(1,n)sum(n,s),可以继续加法计算。同时,还考虑了两种特殊情况:都是负数的情况和有0的情况。最后,通过使用Scanner类来获取输入数据。 ... [详细]
  • 本文介绍了OC学习笔记中的@property和@synthesize,包括属性的定义和合成的使用方法。通过示例代码详细讲解了@property和@synthesize的作用和用法。 ... [详细]
  • Mac OS 升级到11.2.2 Eclipse打不开了,报错Failed to create the Java Virtual Machine
    本文介绍了在Mac OS升级到11.2.2版本后,使用Eclipse打开时出现报错Failed to create the Java Virtual Machine的问题,并提供了解决方法。 ... [详细]
  • 在说Hibernate映射前,我们先来了解下对象关系映射ORM。ORM的实现思想就是将关系数据库中表的数据映射成对象,以对象的形式展现。这样开发人员就可以把对数据库的操作转化为对 ... [详细]
  • 1,关于死锁的理解死锁,我们可以简单的理解为是两个线程同时使用同一资源,两个线程又得不到相应的资源而造成永无相互等待的情况。 2,模拟死锁背景介绍:我们创建一个朋友 ... [详细]
  • Java验证码——kaptcha的使用配置及样式
    本文介绍了如何使用kaptcha库来实现Java验证码的配置和样式设置,包括pom.xml的依赖配置和web.xml中servlet的配置。 ... [详细]
  • 本文介绍了lua语言中闭包的特性及其在模式匹配、日期处理、编译和模块化等方面的应用。lua中的闭包是严格遵循词法定界的第一类值,函数可以作为变量自由传递,也可以作为参数传递给其他函数。这些特性使得lua语言具有极大的灵活性,为程序开发带来了便利。 ... [详细]
  • 后台获取视图对应的字符串
    1.帮助类后台获取视图对应的字符串publicclassViewHelper{将View输出为字符串(注:不会执行对应的ac ... [详细]
  • 《数据结构》学习笔记3——串匹配算法性能评估
    本文主要讨论串匹配算法的性能评估,包括模式匹配、字符种类数量、算法复杂度等内容。通过借助C++中的头文件和库,可以实现对串的匹配操作。其中蛮力算法的复杂度为O(m*n),通过随机取出长度为m的子串作为模式P,在文本T中进行匹配,统计平均复杂度。对于成功和失败的匹配分别进行测试,分析其平均复杂度。详情请参考相关学习资源。 ... [详细]
  • 本文介绍了通过ABAP开发往外网发邮件的需求,并提供了配置和代码整理的资料。其中包括了配置SAP邮件服务器的步骤和ABAP写发送邮件代码的过程。通过RZ10配置参数和icm/server_port_1的设定,可以实现向Sap User和外部邮件发送邮件的功能。希望对需要的开发人员有帮助。摘要长度:184字。 ... [详细]
  • 动态规划算法的基本步骤及最长递增子序列问题详解
    本文详细介绍了动态规划算法的基本步骤,包括划分阶段、选择状态、决策和状态转移方程,并以最长递增子序列问题为例进行了详细解析。动态规划算法的有效性依赖于问题本身所具有的最优子结构性质和子问题重叠性质。通过将子问题的解保存在一个表中,在以后尽可能多地利用这些子问题的解,从而提高算法的效率。 ... [详细]
  • 高质量SQL书写的30条建议
    本文提供了30条关于优化SQL的建议,包括避免使用select *,使用具体字段,以及使用limit 1等。这些建议是基于实际开发经验总结出来的,旨在帮助读者优化SQL查询。 ... [详细]
  • 本文介绍了指针的概念以及在函数调用时使用指针作为参数的情况。指针存放的是变量的地址,通过指针可以修改指针所指的变量的值。然而,如果想要修改指针的指向,就需要使用指针的引用。文章还通过一个简单的示例代码解释了指针的引用的使用方法,并思考了在修改指针的指向后,取指针的输出结果。 ... [详细]
  • 在project.properties添加#Projecttarget.targetandroid-19android.library.reference.1..Sliding ... [详细]
author-avatar
两枚小瓶盖
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有