作者:Edgar__一峰 | 来源:互联网 | 2024-10-20 14:03
前期部署1.JDK安装,配置PATH2.下载spark-1.6.1-bin-hadoop2.6.tgz,并上传到服务器解压3.在 usr 下创建软链接到目标文件夹4.修改配置文件,
前期部署
1.JDK安装,配置PATH
2.下载spark-1.6.1-bin-hadoop2.6.tgz,并上传到服务器解压
3.在 /usr 下创建软链接到目标文件夹
[root@srv01 usr]# ln -s spark-1.6.1-bin-hadoop2.6 spark
4.修改配置文件,目标目录 /usr/spark/conf/
[root@srv01 conf]# ls
docker.properties.template log4j.properties.template slaves.template spark-env.sh.template
fairscheduler.xml.template metrics.properties.template spark-defaults.conf.template
这里需要把spark-env.sh.template改名为spark-env.sh
export JAVA_HOME=/usr/jdk
#这个是单机版的配置,不能实现高可用
export SPARK_MASTER_IP=tourbis
export SPARK_MASTER_PORT=7077
再配置slaves
Spark- Linux下安装Spark