热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Spark配置—Standlone模式

Step1:下载Spark版本:根据HDFS的版本进行下载,—–本文对应的是Spark1.6.0HDFS2.6.0http:spark.

Step 1:
下载Spark版本:根据HDFS的版本进行下载,—–本文对应的是Spark 1.6.0 HDFS 2.6.0
http://spark.apache.org/downloads.html
这里写图片描述

Step 2:
在node11节点执行命令:

mkdir -p /opt/apps/spark
cd /opt/apps/spark

这里写图片描述

Step 3:
使用xftp将下载的spark包上传到上述路径
这里写图片描述

Step 4:
执行命令:

tar -xvf /opt/apps/spark/spark-1.6.0-bin-hadoop2.6.tgz

这里写图片描述

Step 5:
执行命令:

cp /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/slaves.template /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/slaves

这里写图片描述

Step 6:
执行命令:删除localhost,添加从节点

vi /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/slaves

这里写图片描述

Step 7:
执行命令:

cp /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh.template /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh

这里写图片描述

Step 8:
执行命令:

vi /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh

在文件的最下面添加如下属性:

export JAVA_HOME=/usr/java/jdk1.7.0_79
export SPARK_MASTER_IP=node11
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=1g

这里写图片描述

Step 9:
分别在node12和node13上执行命令:

mkdir -p /opt/apps/spark
cd /opt/apps/spark

这里写图片描述
这里写图片描述

Step 10:
在node11执行命令,进行文件的分发

scp -r /opt/apps/spark/spark-1.6.0-bin-hadoop2.6 node12:/opt/apps/spark/
scp -r /opt/apps/spark/spark-1.6.0-bin-hadoop2.6 node13:/opt/apps/spark/

这里写图片描述
这里写图片描述

Step 11:
在node11节点上执行命令:

/opt/apps/spark/spark-1.6.0-bin-hadoop2.6/sbin/start-all.sh

这里写图片描述

Step 12:
分别在三个节点上执行命令:

jps

这里写图片描述
这里写图片描述
这里写图片描述

Step 13:
打开浏览器,输入

192.168.80.11:8080

这里写图片描述

Step 14:
在node11节点上执行命令,运行一个示例

cd /opt/apps/spark/spark-1.6.0-bin-hadoop2.6
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://node11:7077 --executor-memory 1G --total-executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100

得到PI的结果
这里写图片描述

Step 15:
写一个wordcount程序,达成jar包使用xftp上传到node11中某一个路径下
在node11上执行命令:

mkdir -p /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test
cd /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test

这里写图片描述

Step 16:
执行命令:

vi /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test/test_word_count.txt

这里写图片描述

Step 17:
在node11节点上执行命令:——当jar包和文件在节点上时

./bin/spark-submit --class spark.WorldCount --master spark://node11:7077 --executor-memory 1G --total-executor-cores 1 /usr/hadoopsoft/wc20161025.jar /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test/test_word_count.txt

Step 18:
在node11节点上执行命令:——当jar包和文件在hdfs上

./bin/spark-submit --class spark.WorldCount  --master spark://node21:7077 --executor-memory 1G --total-executor-cores 1 hdfs://node22:8020/data/wc20161025.jar  hdfs://node22:8020/data/text.txt

Step 19:
在node11节点上执行命令:——当jar包在hdfs上,文件在节点上

./bin/spark-submit --class spark.WorldCount --master spark://node21:7077 --executor-memory 1G --total-executor-cores 1 hdfs://node22:8020/data/wc20161025.jar  /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test/test_word_count.txt

Step 20:
Cluster模式
jar包和文件都在本地节点上

./bin/spark-submit --class spark.WorldCount --master spark://node11:7077 --deploy-mode cluster --executor-memory 1G --total-executor-cores 1 /usr/hadoopsoft/wc20161025.jar /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test/test_word_count.txt

Step 21:
jar包和文件都在HDFS上

./bin/spark-submit --class spark.WorldCount  --master spark://node11:7077 --deploy-mode cluster --executor-memory 1G --total-executor-cores 1 hdfs://node22:8020/data/wc20161025.jar  hdfs://node22:8020/data/text.txt

推荐阅读
  • 构建高可用性Spark分布式集群:大数据环境下的最佳实践
    在构建高可用性的Spark分布式集群过程中,确保所有节点之间的无密码登录是至关重要的一步。通过在每个节点上生成SSH密钥对(使用 `ssh-keygen -t rsa` 命令并保持默认设置),可以实现这一目标。此外,还需将生成的公钥分发到所有节点的 `~/.ssh/authorized_keys` 文件中,以确保节点间的无缝通信。为了进一步提升集群的稳定性和性能,建议采用负载均衡和故障恢复机制,并定期进行系统监控和维护。 ... [详细]
  • 本文介绍了如何使用Flume从Linux文件系统收集日志并存储到HDFS,然后通过MapReduce清洗数据,使用Hive进行数据分析,并最终通过Sqoop将结果导出到MySQL数据库。 ... [详细]
  • 为了在Hadoop 2.7.2中实现对Snappy压缩和解压功能的原生支持,本文详细介绍了如何重新编译Hadoop源代码,并优化其Native编译过程。通过这一优化,可以显著提升数据处理的效率和性能。此外,还探讨了编译过程中可能遇到的问题及其解决方案,为用户提供了一套完整的操作指南。 ... [详细]
  • HBase在金融大数据迁移中的应用与挑战
    随着最后一台设备的下线,标志着超过10PB的HBase数据迁移项目顺利完成。目前,新的集群已在新机房稳定运行超过两个月,监控数据显示,新集群的查询响应时间显著降低,系统稳定性大幅提升。此外,数据消费的波动也变得更加平滑,整体性能得到了显著优化。 ... [详细]
  • 数据读取hadoopFileParameters:path–pathtoHadoopfileinputFormatClass–fullyqualifiedclassnameo ... [详细]
  • FileBeat + Flume + Kafka + HDFS + Neo4j + SparkStreaming + MySQL:【案例】三度关系推荐V1.0版本11:每周一计算最近一月主播视频评级
    一、数据计算步骤汇总下面我们通过文字梳理一下具体的数据计算步骤。第一步:历史粉丝关注数据初始化第二步:实时维护粉丝关注数据第三步:每天定 ... [详细]
  • Hadoop的文件操作位于包org.apache.hadoop.fs里面,能够进行新建、删除、修改等操作。比较重要的几个类:(1)Configurati ... [详细]
  • 在项目开发中,我们搭建了私有的Maven仓库服务器,以方便管理和下载所需的JAR包。然而,某些外部JAR包可能无法从公共Maven仓库获取,或者我们自行开发了一些仅供公司内部使用的插件,这些都需要上传到私有仓库中进行共享。本文详细介绍了如何使用Maven命令行工具将这些第三方JAR包部署至Nexus仓库服务器,确保团队成员能够轻松访问和使用这些资源。 ... [详细]
  • Hadoop平台警告解决:无法加载本机Hadoop库的全面应对方案
    本文探讨了在Hadoop平台上遇到“无法加载本机Hadoop库”警告的多种解决方案。首先,通过修改日志配置文件来忽略该警告,这一方法被证明是有效的。其次,尝试指定本地库的路径,但未能解决问题。接着,尝试不使用Hadoop本地库,同样没有效果。然后,通过替换现有的Hadoop本地库,成功解决了问题。最后,根据Hadoop的源代码自行编译本地库,也达到了预期的效果。以上方法适用于macOS系统。 ... [详细]
  • Presto:高效即席查询引擎的深度解析与应用
    本文深入解析了Presto这一高效的即席查询引擎,详细探讨了其架构设计及其优缺点。Presto通过内存到内存的数据处理方式,显著提升了查询性能,相比传统的MapReduce查询,不仅减少了数据传输的延迟,还提高了查询的准确性和效率。然而,Presto在大规模数据处理和容错机制方面仍存在一定的局限性。本文还介绍了Presto在实际应用中的多种场景,展示了其在大数据分析领域的强大潜力。 ... [详细]
  • 本文探讨了 Kafka 集群的高效部署与优化策略。首先介绍了 Kafka 的下载与安装步骤,包括从官方网站获取最新版本的压缩包并进行解压。随后详细讨论了集群配置的最佳实践,涵盖节点选择、网络优化和性能调优等方面,旨在提升系统的稳定性和处理能力。此外,还提供了常见的故障排查方法和监控方案,帮助运维人员更好地管理和维护 Kafka 集群。 ... [详细]
  • 本文详细介绍了如何在Java Web服务器上部署音视频服务,并提供了完整的验证流程。以AnyChat为例,这是一款跨平台的音视频解决方案,广泛应用于需要实时音视频交互的项目中。通过具体的部署步骤和测试方法,确保了音视频服务的稳定性和可靠性。 ... [详细]
  • Zookeeper作为Apache Hadoop生态系统中的一个重要组件,主要致力于解决分布式应用中的常见数据管理难题。它提供了统一的命名服务、状态同步服务以及集群管理功能,有效提升了分布式系统的可靠性和可维护性。此外,Zookeeper还支持配置管理和临时节点管理,进一步增强了其在复杂分布式环境中的应用价值。 ... [详细]
  • Hadoop 2.6 主要由 HDFS 和 YARN 两大部分组成,其中 YARN 包含了运行在 ResourceManager 的 JVM 中的组件以及在 NodeManager 中运行的部分。本文深入探讨了 Hadoop 2.6 日志文件的解析方法,并详细介绍了 MapReduce 日志管理的最佳实践,旨在帮助用户更好地理解和优化日志处理流程,提高系统运维效率。 ... [详细]
  • Hadoop + Spark安装(三) —— 调hadoop
    ***************************测试hadoop及问题跟进***************************执行以下语句报错datahadoop-2.9. ... [详细]
author-avatar
手机用户2502902903_601
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有