热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

ApacheSpark基础操作指南

本文详细介绍如何使用ApacheSpark执行基本任务,包括启动SparkShell、运行示例程序以及编写简单的WordCount程序。同时提供了参数配置的注意事项和优化建议。
Apache Spark 基础操作指南

1. 执行第一个 Spark 程序

通过 Spark 自带的示例程序来执行一个估算 PI(蒙特卡洛算法)的任务:

$SPARK_HOME/bin/spark-submit 
--class org.apache.spark.examples.SparkPi
--master spark://hadoop02:7077
--executor-memory 512m
--total-executor-cores 2
$SPARK_HOME/examples/jars/spark-examples_2.11-2.3.0.jar
100

2. 启动 Spark Shell

启动命令如下:

$SPARK_HOME/bin/spark-shell 
--master spark://hadoop02:7077,hadoop04:7077
--executor-memory 512M
--total-executor-cores 2

注意上图中的 cores 参数设置为 0,这会导致在 Spark Shell 中运行的代码无法成功执行。务必确保 CPU 核心数和内存设置合理:

  • Executor 内存不能超过虚拟机的总内存。
  • CPU 核心数不应超过 Spark 集群提供的总核心数,以避免占用全部资源,影响其他程序的正常运行。

参数说明:

  • --master 指定 Master 地址。
  • --executor-memory 指定每个 Worker 的可用内存。
  • --total-executor-cores 指定整个集群使用的 CPU 核心数。

如果没有指定 master 地址,Spark Shell 将默认以本地模式启动,仅在本机启动一个进程,不与集群建立联系。

在 Spark-2.X 版本中,Spark Shell 已经默认初始化了 SparkContext 对象 sc 和 SparkSession 对象 spark。用户可以直接使用这两个对象进行开发。

在 Spark-1.X 版本中,Spark Shell 默认初始化了 SparkContext 对象 sc 和 SQLContext 对象 sqlContext。

3. 在 Spark Shell 中编写 WordCount 程序

在提交 WordCount 程序之前,需要先准备一个文件用于单词统计:

创建一个名为 words.txt 的文件,内容如下:

hello huangbo
hello xuzheng
hello wangbaoqiang

将该文件上传到 HDFS 文件系统中:

[hadoop@hadoop05 ~]$ hadoop fs -mkdir -p /spark/wc/input
[hadoop@hadoop05 ~]$ hadoop fs -put words.txt /spark/wc/input

在 Spark Shell 中提交 WordCount 程序:

最终结果如下:

sc 是 SparkContext 对象,作为提交 Spark 程序的入口。

textFile("hdfs://myha01/spark/wc/input/words.txt") 从 HDFS 中读取数据。

flatMap(_.split(" ")) 先 map 再压平。

map((_,1)) 将单词和 1 构成元组 (word,1)。

reduceByKey(_+_) 按照 key 进行 reduce,并将 value 累加。

saveAsTextFile("hdfs://myha01/spark/wc/output") 将结果写入到 HDFS 对应输出目录中。


推荐阅读
  • 深入解析Hadoop的核心组件与工作原理
    本文详细介绍了Hadoop的三大核心组件:分布式文件系统HDFS、资源管理器YARN和分布式计算框架MapReduce。通过分析这些组件的工作机制,帮助读者更好地理解Hadoop的架构及其在大数据处理中的应用。 ... [详细]
  • 尾花|花萼_相关性Correlations 皮尔逊相关系数(pearson)和斯皮尔曼等级相关系数(spearman)
    尾花|花萼_相关性Correlations 皮尔逊相关系数(pearson)和斯皮尔曼等级相关系数(spearman) ... [详细]
  • 本文详细介绍了如何配置Apache Flume与Spark Streaming,实现高效的数据传输。文中提供了两种集成方案,旨在帮助用户根据具体需求选择最合适的配置方法。 ... [详细]
  • 解决JAX-WS动态客户端工厂弃用问题并迁移到XFire
    在处理Java项目中的JAR包冲突时,我们遇到了JaxWsDynamicClientFactory被弃用的问题,并成功将其迁移到org.codehaus.xfire.client。本文详细介绍了这一过程及解决方案。 ... [详细]
  • HBase运维工具全解析
    本文深入探讨了HBase常用的运维工具,详细介绍了每种工具的功能、使用场景及操作示例。对于HBase的开发人员和运维工程师来说,这些工具是日常管理和故障排查的重要手段。 ... [详细]
  • 本文详细介绍了 Flink 和 YARN 的交互机制。YARN 是 Hadoop 生态系统中的资源管理组件,类似于 Spark on YARN 的配置方式。我们将基于官方文档,深入探讨如何在 YARN 上部署和运行 Flink 任务。 ... [详细]
  • Struts与Spring框架的集成指南
    本文详细介绍了如何将Struts和Spring两个流行的Java Web开发框架进行整合,涵盖从环境配置到代码实现的具体步骤。 ... [详细]
  • 深入解析Spark核心架构与部署策略
    本文详细探讨了Spark的核心架构,包括其运行机制、任务调度和内存管理等方面,以及四种主要的部署模式:Standalone、Apache Mesos、Hadoop YARN和Kubernetes。通过本文,读者可以深入了解Spark的工作原理及其在不同环境下的部署方式。 ... [详细]
  • 优化ListView性能
    本文深入探讨了如何通过多种技术手段优化ListView的性能,包括视图复用、ViewHolder模式、分批加载数据、图片优化及内存管理等。这些方法能够显著提升应用的响应速度和用户体验。 ... [详细]
  • 本文详细介绍了如何在Linux系统上安装和配置Smokeping,以实现对网络链路质量的实时监控。通过详细的步骤和必要的依赖包安装,确保用户能够顺利完成部署并优化其网络性能监控。 ... [详细]
  • 本文详细介绍了 Dockerfile 的编写方法及其在网络配置中的应用,涵盖基础指令、镜像构建与发布流程,并深入探讨了 Docker 的默认网络、容器互联及自定义网络的实现。 ... [详细]
  • 本文详细分析了Hive在启动过程中遇到的权限拒绝错误,并提供了多种解决方案,包括调整文件权限、用户组设置以及环境变量配置等。 ... [详细]
  • 本文详细介绍了Java中org.w3c.dom.Text类的splitText()方法,通过多个代码示例展示了其实际应用。该方法用于将文本节点在指定位置拆分为两个节点,并保持在文档树中。 ... [详细]
  • Hadoop入门与核心组件详解
    本文详细介绍了Hadoop的基础知识及其核心组件,包括HDFS、MapReduce和YARN。通过本文,读者可以全面了解Hadoop的生态系统及应用场景。 ... [详细]
  • PHP 过滤器详解
    本文深入探讨了 PHP 中的过滤器机制,包括常见的 $_SERVER 变量、filter_has_var() 函数、filter_id() 函数、filter_input() 函数及其数组形式、filter_list() 函数以及 filter_var() 和其数组形式。同时,详细介绍了各种过滤器的用途和用法。 ... [详细]
author-avatar
mobiledu2502923487
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有