目录
- 大数据架构
-
技术选型
- 实时分析
- 离线分析
- 组件版本号
大数据架构
- 源数据层(原始数据存储位置)
sdk日志埋点
日志文件:爬虫日志、业务日志
关系型数据库:mysql,oracle等
- 数据采集层(抽取源数据至数据存储层)
离线:flume、Sqoop、Nifi
实时:filebeat、nginx+lua
补充:当数据量达到5亿左右的时候,filebeat+logstash采集数据到hdfs,数据会出现丢失的情况,所以此种方案不适合用于大数据存储到hdfs
- 数据存储层
hdfs用于存储离线大数据量
kudu用于存储mysql关系数据库更新变化的数据
es存储一些log日志,比如说我们需要快速的定位某一个业务的log情况
kafka作为消息中间件,存储filebeat或者是flume采集的日志
- 数据分析层(进行数据分析)
es,分析一些log
hive用于分析一些离线大数据(基于磁盘IO分析)
impala、presto 适用于分析一些准实时日志(要求快速出数据,基于内存分析)
spark core+spark sql 适用于分析一些离线数据,自定义解析规则
spark streaming 适用于分析一些实时(不是完全实时)数据
flink,jstorm 用于分析完全实时的数据
- 数据调度层(对数据分析任务进行调度)
airflow 适用大集群,阿里的调度系统就是根据airflow二次开发,配置复杂,python 脚本实现
azkaban :cpu和内存要求不高,主从配置支持的不算太好,适用于小集群,以job的文件实现,配置简单
oozie:通常hue集成,单独的使用oozie的情况下,配置复杂,不建议使用,所有的任务都是以mr形式进行的,可支持复杂的依赖调度
jobX: cpu使用高,bug还没修复,所以造成agent的cpu维持在一个左右,配置简单,只支持依赖调度,并行调度不支持。
crontab:一般用于每分钟调度一次的任务,不支持依赖调度,并行调度(配置复杂,通过脚本自定义控制),没有可视化界面,不能准确的判断任务是否成功或者是失败
NIFI: 不但支持任务调度,还支持ETL
自定义,公司自己开发使用的
- 数据同步层(调度任务,执行完毕后,还要写入应用程序中。采用sqoop等将数据同步到mysql(olap存储层)中)
sqoop 用的是1.x系列版本
datax
kettle
NIFI
- 数据olap存储层
mysql es tidb redis hbase clickhouse
有时间的话研究tidb和clickhouse
- 数据展示层(展示mysql中的数据)
PowerBI,帆软等BI可视化工具。
技术选型
实时分析
可以使用lua或者filebeat将nginx数据采集到kafka,数据经过spark streaming或者是jstorm进行分析后,尽可能的存入一些高吞吐量的数据库(非关系型,redis,hbase),但是有时必须要存入一些关系型数据库,比如说mysql。
但是spark streaming发现仅仅通过一个map操作,每个执行的batch 期间,就超过了我们所设置的batch时间,这时候我们需要一个措施。
增加一个缓冲层,不直接mysql或者是redis,先写入kafka(消息中间件),然后通过kafka推送到独立的写入服务,这样会发现实时处理服务的时间明显的降低。
离线分析
-- 采集这块用flume的tailf形式,或者使用sqoop和NIFI
-- 数据分析使用Hive,SparkSql,数据存储用HDFS
-- 最终将数据导出到mysql等常用的关系型数据库当中。
组件版本号
Cloudera Manager: 6.2.1
CDH: 6.2.1
Hadoop:3.0.0-cdh6.2.1
HBase:2.1.0-cdh6.2.1
Hive:2.1.1-cdh6.2.1
Kafka:2.1.1-cdh6.2.1
Kudu:1.9.0-cdh6.2.1
Oozie:5.1.0-cdh6.2.1
Spark:2.4.0-cdh6.2.1
Sqoop:1.4.7-cdh6.2.1
Zookeeper:3.4.5-cdh6.2.1