热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Hadoop:CCAH及CCA系列认证

一、CCAHAdministratorHadoop管理员认证认证准备建议:Hadoop管理员培训考试形式:90分钟;70%通过;60道多项选择题(会提示是单选or多选)培训

一、CCAH Administrator Hadoop管理员认证

认证准备建议:Hadoop管理员培训

考试形式:90分钟;70%通过;60道多项选择题(会提示是单选or多选)

培训内容

通过讲师在课堂上的讲解,以及实操练习,学员将学习以下内容:

Cloudera Manager管理机群的特性,譬如日志汇总、配置管理、报告、报警及服务管理。 YARN、MapReduce、Spark及HDFS的工作原理。

如何为你的机群选取合适的硬件和架构。

如何将 Hadoop 机群和企业已有的系统进行无缝集成。

如何使用Flume 进行实时数据采集以及如何使用Sqoop在RDBMS和Hadoop机群之间进行数据导入导出。

如何配置公平调度器为Hadoop上的多用户提供服务级别保障。

产品环境中Hadoop机群的最佳运维实践。

Hadoop机群排错、诊断问题和性能调优。

培训对象及学员基础

“面向系统管理员和IT 经理,需具备Linux 经验,无需Apache Hadoop 基础。

认证 “结束本课程培训后,我们建议学员准备并注册参加Cloudera 认证 Hadoop 管理员考试(CCAH)。通过并获取该证书是向公司及客户证明个人在Hadoop 领域的技术和专长的有力依据。

 

二、CCA Spark and Hadoop Developer开发者认证

认证准备建议:Spark andHadoop开发者培训

考试形式:120分钟;70%通过;解决10~12基于CDH5机群上需通过实际操作的问题

培训内容

通过讲师在课堂上的讲解,以及实操练习,学员将学习以下内容:

在 Hadoop 机群上进行分布式存储和处理数据。

在 Hadoop 机群上编写、配置和部署 Apache Spark 应用。

使用 Spark shell 进行交互式数据分析。

使用 Spark SQL 查询处理结构化数据。  

使用 Spark Streaming 处理流式数据。

使用 Flume 和 Kafka 为 Spark Streaming 采集流式数据。

培训对象及学员基础

本课程适合于具有编程经验的开发员及工程师。无需 Apache Hadoop 基础,培训内容中对 Apache Spark 的介绍所涉及的代码及练习使用 Scala 和Python,因此需至少掌握这两个编程语言中的一种。需熟练掌握 Linux 命令行。对 SQL 有基本了解。

 

三、CCA Data Analyst数据分析师认证

认证准备建议:DataAnalyst数据分析师培训

考试形式:120分钟;70%通过;解决10~12个客户问题,对于每一个问题,考生必须给出一个满足所有要求的精确的技术解决方案。考生可在群集上使用任何工具或组合使用工具。

培训内容

通过讲师在课堂上的讲解,以及实操练习,学员将熟悉Hadoop生态系统, 学习主题包括:

Pig、Hive 和 Impala 针对数据采集、存储和分析而提供的功能。

Apache Hadoop的基本原理,以及使用Hadoop工具进行数据ETL(提取、

转换和加载)、撷取和处理。

Pig、Hive 和 Impala 是如何提高典型分析任务的处理效率的。

联接多种多样的数据集,以获得有价值的商业洞察力。

执行实时、复杂的数据集查询。

培训对象和学员基础

本课程是专为数据分析师、商业智能专家、开发人员、系统架构师和数据库管理员开发的。培训学员需具备一定的SQL知识水平,且基本熟悉 Linux 命令行。培训学员至少熟悉一种脚本语言知识(例如,Bash 脚本编程、 Perl、Python和 Ruby)将会更有帮助,但不是必需的。此外,培训学员不需要具备Apache Hadoop知识。



推荐阅读
  • 工作原理_一文理解 Spark 基础概念及工作原理
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了一文理解Spark基础概念及工作原理相关的知识,希望对你有一定的参考价值。 ... [详细]
  • 各个组件confspark-env.sh配置spark的环境变量confspark-default.conf配置spark应用默认的配置项和spark-env.sh有重合之处,可在 ... [详细]
  • 本文详细介绍了 Java 网站开发的相关资源和步骤,包括常用网站、开发环境和框架选择。 ... [详细]
  • 2020年9月15日,Oracle正式发布了最新的JDK 15版本。本次更新带来了许多新特性,包括隐藏类、EdDSA签名算法、模式匹配、记录类、封闭类和文本块等。 ... [详细]
  • 从0到1搭建大数据平台
    从0到1搭建大数据平台 ... [详细]
  • 作为140字符的开创者,Twitter看似简单却异常复杂。其简洁之处在于仅用140个字符就能实现信息的高效传播,甚至在多次全球性事件中超越传统媒体的速度。然而,为了支持2亿用户的高效使用,其背后的技术架构和系统设计则极为复杂,涉及高并发处理、数据存储和实时传输等多个技术挑战。 ... [详细]
  • hadoop完全分布式搭建
    原文链接:hadoop完全分布式搭建主机分配以及地址要求:角色主机名IP地址Namenodemaster192.168.222.201Datanodeslave ... [详细]
  • Kylin 单节点安装
    软件环境Hadoop:2.7,3.1(sincev2.5)Hive:0.13-1.2.1HBase:1.1,2.0(sincev2.5)Spark(optional)2.3.0K ... [详细]
  • 本指南从零开始介绍Scala编程语言的基础知识,重点讲解了Scala解释器REPL(读取-求值-打印-循环)的使用方法。REPL是Scala开发中的重要工具,能够帮助初学者快速理解和实践Scala的基本语法和特性。通过详细的示例和练习,读者将能够熟练掌握Scala的基础概念和编程技巧。 ... [详细]
  • 技术日志:深入探讨Spark Streaming与Spark SQL的融合应用
    技术日志:深入探讨Spark Streaming与Spark SQL的融合应用 ... [详细]
  • 在Linux系统中,原本已安装了多个版本的Python 2,并且还安装了Anaconda,其中包含了Python 3。本文详细介绍了如何通过配置环境变量,使系统默认使用指定版本的Python,以便在不同版本之间轻松切换。此外,文章还提供了具体的实践步骤和注意事项,帮助用户高效地管理和使用不同版本的Python环境。 ... [详细]
  • 深入理解Spark框架:RDD核心概念与操作详解
    RDD是Spark框架的核心计算模型,全称为弹性分布式数据集(Resilient Distributed Dataset)。本文详细解析了RDD的基本概念、特性及其在Spark中的关键操作,包括创建、转换和行动操作等,帮助读者深入理解Spark的工作原理和优化策略。通过具体示例和代码片段,进一步阐述了如何高效利用RDD进行大数据处理。 ... [详细]
  • 在使用sbt构建项目时,遇到了“对象apache不是org软件包的成员”的错误。本文详细分析了该问题的原因,并提供了有效的解决方案,包括检查依赖配置、清理缓存和更新sbt插件等步骤,帮助开发者快速解决问题。 ... [详细]
  • SWIG 3.0.12 Windows官方版下载:实现C语言与PHP、Java、Python等多语言代码互调接口
    SWIG 3.0.12 Windows官方版是一款强大的接口生成工具,能够实现C语言与多种高级编程语言(如Java、C#)及脚本语言(如PHP、JavaScript、Python)之间的互操作性。它不仅支持跨语言调用,还提供了丰富的封装选项,确保了代码的高效性和可维护性。 ... [详细]
  •        在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下:       1、CentOS6.7下安装JDK,地址:http:b ... [详细]
author-avatar
柯洁豪雅伯育瑋
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有