作者:敏捷的敏2502921017 | 来源:互联网 | 2023-08-30 10:25
简介:目前业界主流存储与分析平台以Hadoop为主的开源生态圈,MapReduce作为Hadoop的数据集的并行运算模型,除了提供Java编写MapReduce任务外,还兼容了St
Python大数据应用简介
简介:目前业界主流存储与分析平台以Hadoop为主的开源生态圈,MapReduce作为Hadoop的数据集的并行运算模型,除了提供Java编写MapReduce任务外,还兼容了Streaming方式,可以使用任意脚本语言来编写MapReduce任务,优点是开发简单且灵活。
Hadoop环境部署
1、部署Hadoop需要Master访问所有Slave主机实现无密码登陆,即配置账号公钥认证。
2、Master主机安装JDK环境
yum安装方式:yum install -y java-1.6.0-openjdk*
配置Java环境变量:vi /etc/profile
JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.41.x86_64
JRE_HOME=$JAVA_HOME/jre
CLASS_PATH=::$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH
使配置文件生效:source /etc/profile
3、Master主机安装Hadoop
3.1、下载Hadoop,解压到/usr/local目录下
3.2、修改hadoop-env.sh中java环境变量
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.41.x86_64
3.3、修改core-site.xml(Hadoop core的配置文件)
hadoop.tmp.dir
/data/tmp/hadoop-${user.name}
fs.default.name
hdfs://192.168.1.1:9000
3.4、修改hdfs-site.xml(Hadoop的HDFS组件的配置项)
dfs.name.dir
/data/tmp/name
dfs.data.dir
/data/hdfs/data
dfs.datanode.max.xcievers
4096
dfs.replication
2
3.5、修改mapred-site.xml(配置map-reduce组件的属性,包括jobtracker和tasktracker)
mapred.job.tracker
192.168.1.1:9001
3.6、修改masters,slaves配置文件
masters文件
192.168.1.1
slaves文件
192.168.1.1
192.168.1.2
192.168.1.3
4、Slave主机配置
4.1、配置和Master主机一样的JDK环境,目标路径保持一致
4.2、将Master主机配置好的hadoop环境复制到Slave主机上
5、配置防火墙
master主机
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50030 -j ACCEPT
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50070 -j ACCEPT
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 9000 -j ACCEPT
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 90001 -j ACCEPT
Slave主机
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50075 -j ACCEPT
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50060 -j ACCEPT
iptables -I INPUT -s 192.168.1.1 -p tcp --dport 50010 -j ACCEPT
6、检验结果
6.1、在Master主机上执行启动命令(在安装目录底下)
./bin/start-all.sh
所示结果如下,表示启动成功
6.2、在Master主机上测试MapReduce示例
./bin/hadoop jar hadoop-examples-1.2.1.jar pi 10 100
所示结果如下,表示配置成功
7、补充:访问Hadoop提供的管理页面
Map/Reduce管理地址:192.168.1.1:50030
HDFS管理地址:192.168.1.1:50070
1、Python大数据应用——部署Hadoop