身为大数据工程师,还在学Spark、Hadoop、Storm,却没研究过Flink?刚过去的2020双11,阿里在Flink实时计算技术的驱动下全程保持了“如丝般顺滑”,基于Flink的阿里巴巴实时计算平台,效果非常稳定。
阿里双十一的数据量,有多庞大?
今年阿里的实时计算峰值达到了破纪录的每秒40亿条记录,数据量也达到了惊人的7TB每秒,相当于一秒钟需要读完500万本《新华字典》。Flink的强悍之处,阿里屡试不爽。
不同数据处理方式,有何区别?
大数据起源于批处理,在批处理上,Spark有很深的积累。为了应对全球大量业务的实时需求,Spark也推出了流计算解决方案——SparkStreaming。但Spark毕竟不是一款纯流式计算引擎,所以在时效性等问题上,始终无法提供极致的流批一体体验。
而后起新秀Flink的基本数据模型则是数据流,以及事件(Event)的序列。数据流作为数据的基本模型,可以是无边界的无限“流”,即一般意义上的流处理;也可以是有边界的有限“流”,也就同时兼顾了批处理。
关于以上,阿里搜索事业部资深搜索专家蒋晓伟曾谈到:
Spark和Flink都具有流和批处理能力,但是他们的做法是相反的。Spark Streaming是把流转化成一个个小的批来处理,这种方案的一个问题是我们需要的延迟越低,额外开销占的比例就会越大,这导致了Spark Streaming很难做到秒级甚至亚秒级的延迟。Flink是把批当作一种有限的流,这种做法的一个特点是在流和批共享大部分代码的同时还能够保留批处理特有的一系列的优化。
相比于Spark,Flink有什么优势?
支持高效容错的状态管理,保证在任何时间都能计算出正确的结果;
同时支持高吞吐、低延迟、高性能的分布式流式数据处理框架;
支持事件时间(Event Time)概念,事件即使无序到达甚至延迟到达,数据流都能够计算出精确的结果;
轻量级分布式快照(Snapshot)实现的容错,能将计算过程分布到单台并行节点上进行处理。
几年前,阿里就开始探索Flink的实战应用。随着2020双11阿里基于Flink实时计算场景的成功,毋庸置疑,Flink将会加速成为大厂主流的数据处理框架,最终化身下一代大数据处理标准。
总结
对数字化转型的公司来说,公司业务可以分为两类:一类是OLTP型的业务,一类是OLAP型的业务。当今的大数据架构师需要掌握大数据采集、大数据ETL、大数据计算、大数据存储、大数据建模、大数据智能分析等多项技术能力,最核心的是以Flink为首的大数据计算引擎。
Flink千亿级海量数据场景实战
回归业务,在千亿级海量数据实时处理场景中,Flink如何落地应用?Flink两阶段提交核心源码有哪些?海量大数据去重普适架构又该怎么做?
如果你想学习大厂主流计算引擎Flink架构设计,这里推荐一下前58技术委员主席孙玄打造的《大数据架构师必备技能—千亿级企业大数据计算引擎Flink State架构设计深度剖析与案例深度实践》在线专栏课。3天的课程,免费。
课题:千亿级企业大数据计算引擎Flink State架构设计深度剖析与案例深度实践
讲师:孙玄、李希沅
时间:12.8-12.10三天,20:00开始
费用:免费(原价499,现价9.8,学完全退)
名额:200名,先到先得
如何参加?
扫码占位,限200名额,请等待课程顾问通过
学习,永无止境,希望大家有收获。
阅读原文,了解更多。