热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

腾讯看点多维实时分析系统架构大曝光!

作者|王展雄来源|腾讯看点技术(ID:TKD-Tech)导语:当业务发展到一定规模,实时数据仓库是一个必要的基


作者 | 王展雄

来源 | 腾讯看点技术(ID:TKD-Tech)

导语:当业务发展到一定规模,实时数据仓库是一个必要的基础服务。从数据驱动方面考虑,多维实时数据分析系统的重要性也不言而喻。但是当数据量巨大的情况下,拿腾讯看点来说,一天上报的数据量达到万亿级的规模,要实现极低延迟的实时计算和亚秒级的多维实时查询是有技术挑战的。本文将介绍一下信息流场景下,腾讯看点的实时数据仓库和多维实时数据分析系统的技术架构。

可解决的痛点

可以先看一下,多维实时数据分析系统可以解决哪些痛点。比如:

  • 推荐同学10分钟前上了一个推荐策略,想知道在不同人群的推荐效果怎么样?

  • 运营同学想知道,在广东省的用户中,最火的广东地域内容是哪些,方便做地域Push。

  • 审核同学想知道,过去5分钟,游戏类被举报最多的内容和账号是哪些?

  • 老板可能想了解,过去10分钟有多少用户在看点消费了内容,对消费人群有一个宏观了解。

调研

在进行开发之前,我们做了这些调研。

1.离线数据分析平台能否满足这些需求,结论是不能满足。离线数据分析平台不行的原因如下。

  • C侧数据上报过来,需要经过Spark的多层离线计算,最终结果出库到Mysql或者ES提供给离线分析平台查询。这个过程的延时最少3-6个小时,目前比较常见的都是提供隔天的查询,所以很多实时性要求高的业务场景都是不能满足的。

  • 另一个问题是,腾讯看点的数据量太大,带来的不稳定性也比较大,经常会有预料不到的延迟。所以,离线分析平台是无法满足很多需求的。

2.实时数据分析平台的话,事业群内部提供了准实时数据查询的功能,底层技术用的是Kudu+Impala,Impala虽然是MPP架构的大数据计算引擎,并且访问以列式存储数据的Kudu。但是对于实时数据分析场景来说,查询响应的速度和数据的延迟都还是比较高,查询一次实时DAU,返回结果耗时至少几分钟,无法提供良好的交互式用户体验。所以(Kudu+Impala)这种通用大数据处理框架的速度优势更多的是相比(Spark+Hdfs)这种离线分析框架来说的,对于我们这个实时性要求更高的场景,是无法满足的。

项目背景

经过刚才的介绍,再来看下我们这个项目的背景。

作者发文的内容被内容中心引入,经过内容审核链路,启用或者下架。启用的内容给到推荐系统和运营系统,然后推荐系统和运营系统将内容进行C侧分发。内容分发给C侧用户之后,用户会产生各种行为,曝光、点击、举报等,通过埋点上报实时接入到消息队列中。

接下来我们做了两部分工作,就是图中有颜色的这两部分。

  • 第一部分构建了一个腾讯看点的实时数据仓库。

  • 第二部分就是基于OLAP存储引擎,开发了多维实时数据分析系统。

我们为什么要构建实时数仓,因为原始的上报数据量非常大,一天上报峰值就有上万亿条。而且上报格式混乱。缺乏内容维度信息、用户画像信息,下游没办法直接使用。而我们提供的实时数仓,是根据腾讯看点信息流的业务场景,进行了内容维度的关联,用户画像的关联,各种粒度的聚合,下游可以非常方便的使用实时数据。

方案选型

那就看下我们多维实时数据分析系统的方案选型,选型我们对比了行业内的领先方案,选择了最符合我们业务场景的方案。

  • 第一块是实时数仓的选型,我们选择的是业界比较成熟的Lambda架构,他的优点是灵活性高、容错性高、成熟度高和迁移成本低;缺点是实时、离线数据用两套代码,可能会存在一个口径修改了,另一个没改的问题,我们每天都有做数据对账的工作,如果有异常会进行告警。

  • 第二块是实时计算引擎选型,因为Flink设计之初就是为了流处理,SparkStreaming严格来说还是微批处理,Strom用的已经不多了。再看Flink具有Exactly-once的准确性、轻量级Checkpoint容错机制、低延时高吞吐和易用性高的特点,我们选择了Flink作为实时计算引擎。

  • 第三块是实时存储引擎,我们的要求就是需要有维度索引、支持高并发、预聚合、高性能实时多维OLAP查询。可以看到,Hbase、Tdsql和ES都不能满足要求,Druid有一个缺陷,它是按照时序划分Segment,无法将同一个内容,存放在同一个Segment上,计算全局TopN只能是近似值,所以我们选择了最近两年大火的MPP数据库引擎ClickHouse。

设计目标与设计难点

我们多维实时数据分析系统分为三大模块

  1. 实时计算引擎

  2. 实时存储引擎

  3. App层

难点主要在前两个模块:实时计算引擎和实时存储引擎。

  1. 千万级/s的海量数据如何实时接入,并且进行极低延迟维表关联。

  2. 实时存储引擎如何支持高并发写入、高可用分布式和高性能索引查询,是比较难的。

这几个模块的具体实现,看一下我们系统的架构设计。

架构设计

前端采用的是开源组件Ant Design,利用了Nginx服务器,部署静态页面,并反向代理了浏览器的请求到后台服务器上。

后台服务是基于腾讯自研的RPC后台服务框架写的,并且会进行一些二级缓存。

实时数仓部分,分为了接入层、实时计算层和实时数仓存储层。

  • 接入层主要是从千万级/s的原始消息队列中,拆分出不同行为数据的微队列,拿看点的视频来说,拆分过后,数据就只有百万级/s了;

  • 实时计算层主要负责,多行行为流水数据进行行转列,实时关联用户画像数据和内容维度数据;

  • 实时数仓存储层主要是设计出符合看点业务的,下游好用的实时消息队列。我们暂时提供了两个消息队列,作为实时数仓的两层。一层DWM层是内容ID-用户ID粒度聚合的,就是一条数据包含内容ID-用户ID还有B侧内容数据、C侧用户数据和用户画像数据;另一层是DWS层,是内容ID粒度聚合的,一条数据包含内容ID,B侧数据和C侧数据。可以看到内容ID-用户ID粒度的消息队列流量进一步减小到十万级/s,内容ID粒度的更是万级/s,并且格式更加清晰,维度信息更加丰富。

实时存储部分分为实时写入层、OLAP存储层和后台接口层。

  • 实时写入层主要是负责Hash路由将数据写入;

  • OLAP存储层利用MPP存储引擎,设计符合业务的索引和物化视图,高效存储海量数据;

  • 后台接口层提供高效的多维实时查询接口。

实时计算

这个系统最复杂的两块,实时计算和实时存储。

先介绍实时计算部分:分为实时关联和实时数仓。

7.1 实时高性能维表关联 

实时维表关联这一块难度在于。百万级/s的实时数据流,如果直接去关联HBase,1分钟的数据,关联完HBase耗时是小时级的,会导致数据延迟严重。

我们提出了几个解决方案:

  • 第一个是,在Flink实时计算环节,先按照1分钟进行了窗口聚合,将窗口内多行行为数据转一行多列的数据格式,经过这一步操作,原本小时级的关联耗时下降到了十几分钟,但是还是不够的。

  • 第二个是,在访问HBase内容之前设置一层Redis缓存,因为1000条数据访问HBase是秒级的,而访问Redis是毫秒级的,访问Redis的速度基本是访问HBase的1000倍。为了防止过期的数据浪费缓存,缓存过期时间设置成24小时,同时通过监听写HBase Proxy来保证缓存的一致性。这样将访问时间从十几分钟变成了秒级。

  • 第三个是,上报过程中会上报不少非常规内容ID,这些内容ID在内容HBase中是不存储的,会造成缓存穿透的问题。所以在实时计算的时候,我们直接过滤掉这些内容ID,防止缓存穿透,又减少一些时间。

  • 第四个是,因为设置了定时缓存,会引入一个缓存雪崩的问题。为了防止雪崩,我们在实时计算中,进行了削峰填谷的操作,错开设置缓存的时间。

可以看到,优化前后,数据量从百亿级减少到了十亿级,耗时从小时级减少到了数十秒,减少99%。

7.2 下游提供服务 

实时数仓的难度在于:它处于比较新的领域,并且各个公司各个业务差距比较大,怎么能设计出方便,好用,符合看点业务场景的实时数仓是有难度的。

先看一下实时数仓做了什么,实时数仓对外就是几个消息队列,不同的消息队列里面存放的就是不同聚合粒度的实时数据,包括内容ID、用户ID、C侧行为数据、B侧内容维度数据和用户画像数据等。

我们是怎么搭建实时数仓的,就是上面介绍的实时计算引擎的输出,放到消息队列中保存,可以提供给下游多用户复用。

我们可以看下,在我们建设实时数据仓库前后,开发一个实时应用的区别。没有数仓的时候,我们需要消费千万级/s的原始队列,进行复杂的数据清洗,然后再进行用户画像关联、内容维度关联,才能拿到符合要求格式的实时数据,开发和扩展的成本都会比较高,如果想开发一个新的应用,又要走一遍这个流程。有了数仓之后,如果想开发内容ID粒度的实时应用,就直接申请TPS万级/s的DWS层的消息队列。开发成本变低很多,资源消耗小很多,可扩展性也强很多。

看个实际例子,开发我们系统的实时数据大屏,原本需要进行如上所有操作,才能拿到数据。现在只需要消费DWS层消息队列,写一条Flink SQL即可,仅消耗2个cpu核心,1G内存。

可以看到,以50个消费者为例,建立实时数仓前后,下游开发一个实时应用,可以减少98%的资源消耗。包括计算资源,存储资源,人力成本和开发人员学习接入成本等等。并且消费者越多,节省越多。就拿Redis存储这一部分来说,一个月就能省下上百万人民币。

实时存储

介绍完实时计算,再来介绍实时存储。

这块分为三个部分来介绍:

  • 第一是 分布式-高可用

  • 第二是 海量数据-写入

  • 第三是 高性能-查询

8.1 分布式-高可用

我们这里听取的是Clickhouse官方的建议,借助ZK实现高可用的方案。数据写入一个分片,仅写入一个副本,然后再写ZK,通过ZK告诉同一个分片的其他副本,其他副本再过来拉取数据,保证数据一致性。

这里没有选用消息队列进行数据同步,是因为ZK更加轻量级。而且写的时候,任意写一个副本,其它副本都能够通过ZK获得一致的数据。而且就算其它节点第一次来获取数据失败了,后面只要发现它跟ZK上记录的数据不一致,就会再次尝试获取数据,保证一致性。

8.2 海量数据-写入

数据写入遇到的第一个问题是,海量数据直接写入Clickhouse的话,会导致ZK的QPS太高,解决方案是改用Batch方式写入。Batch设置多大呢,Batch太小的话缓解不了ZK的压力,Batch也不能太大,不然上游内存压力太大,通过实验,最终我们选用了大小几十万的Batch。

第二个问题是,随着数据量的增长,单QQ看点的视频内容每天可能写入百亿级的数据,默认方案是写一张分布式表,这就会造成单台机器出现磁盘的瓶颈,尤其是Clickhouse底层运用的是Mergetree,原理类似于HBase、RocketsDb的底层LSM-Tree。在合并的过程中会存在写放大的问题,加重磁盘压力。峰值每分钟几千万条数据,写完耗时几十秒,如果正在做Merge,就会阻塞写入请求,查询也会非常慢。我们做的两个优化方案:一是对磁盘做Raid,提升磁盘的IO;二是在写入之前进行分表,直接分开写入到不同的分片上,磁盘压力直接变为1/N。

第三个问题是,虽然我们写入按照分片进行了划分,但是这里引入了一个分布式系统常见的问题,就是局部的Top并非全局Top的问题。比如同一个内容ID的数据落在了不同的分片上,计算全局Top100阅读的内容ID,有一个内容ID在分片1上是Top100,但是在其它分片上不是Top100,导致汇总的时候,会丢失一部分数据,影响最终结果。我们做的优化是在写入之前加上一层路由,将同一个内容ID的记录,全部路由到同一个分片上,解决了该问题。

介绍完写入,下一步介绍Clickhouse的高性能存储和查询。

8.3 高性能-存储-查询

Clickhouse高性能查询的一个关键点是稀疏索引。稀疏索引这个设计就很有讲究,设计得好可以加速查询,设计不好反而会影响查询效率。我根据我们的业务场景,因为我们的查询大部分都是时间和内容ID相关的,比如说,某个内容,过去N分钟在各个人群表现如何?我按照日期,分钟粒度时间和内容ID建立了稀疏索引。针对某个内容的查询,建立稀疏索引之后,可以减少99%的文件扫描。

还有一个问题就是,我们现在数据量太大,维度太多。拿QQ看点的视频内容来说,一天流水有上百亿条,有些维度有几百个类别。如果一次性把所有维度进行预聚合,数据量会指数膨胀,查询反而变慢,并且会占用大量内存空间。我们的优化,针对不同的维度,建立对应的预聚合物化视图,用空间换时间,这样可以缩短查询的时间。

分布式表查询还会有一个问题,查询单个内容ID的信息,分布式表会将查询下发到所有的分片上,然后再返回查询结果进行汇总。实际上,因为做过路由,一个内容ID只存在于一个分片上,剩下的分片都在空跑。针对这类查询,我们的优化是后台按照同样的规则先进行路由,直接查询目标分片,这样减少了N-1/N的负载,可以大量缩短查询时间。而且由于我们是提供的OLAP查询,数据满足最终一致性即可,通过主从副本读写分离,可以进一步提升性能。

我们在后台还做了一个1分钟的数据缓存,针对相同条件查询,后台就直接返回了。

8.4 扩容

这里再介绍一下我们的扩容的方案,调研了业内的一些常见方案。

比如HBase,原始数据都存放在HDFS上,扩容只是Region Server扩容,不涉及原始数据的迁移。但是Clickhouse的每个分片数据都是在本地,是一个比较底层存储引擎,不能像HBase那样方便扩容。

Redis是哈希槽这种类似一致性哈希的方式,是比较经典分布式缓存的方案。Redis slot在Rehash的过程中虽然存在短暂的ask读不可用,但是总体来说迁移是比较方便的,从原h[0]迁移到h[1],最后再删除h[0]。但是Clickhouse大部分都是OLAP批量查询,不是点查,而且由于列式存储,不支持删除的特性,一致性哈希的方案不是很适合。

目前扩容的方案是,另外消费一份数据,写入新Clickhouse集群,两个集群一起跑一段时间,因为实时数据就保存3天,等3天之后,后台服务直接访问新集群。

 

成果

腾讯看点实时数据仓库:DWM层和DWS层,数据延迟1分钟。

远见多维实时数据分析系统:亚秒级响应多维条件查询请求,在未命中缓存情况下,过去30分钟的查询,99%的请求耗时在1秒内;过去24小时的查询,90%的请求耗时在5秒内,99%的请求耗时在10秒内。


更多精彩推荐
☞谷歌软件工程师薪资百万,大厂薪资有多高?
☞这都是啥软件?你能猜到吗?| 每日趣闻
☞杜甫在线演唱《奇迹再现》、兵马俑真人还原……用AI技术打破次元壁的大谷来参加腾讯全球数字生态大会啦!
☞开放源码,华为鸿蒙HarmonyOS 2.0来了
☞20张图,带你搞懂高并发中的线程与线程池!
☞跨链,该怎么跨?

点分享点点赞点在看


推荐阅读
  • 本文详细介绍了 Redis 中的主要数据类型,包括 String、Hash、List、Set、ZSet、Geo 和 HyperLogLog,并提供了每种类型的基本操作命令和应用场景。 ... [详细]
  • LeetCode 102 - 二叉树层次遍历详解
    本文详细解析了LeetCode第102题——二叉树的层次遍历问题,提供了C++语言的实现代码,并对算法的核心思想和具体步骤进行了深入讲解。 ... [详细]
  • 入门指南:使用FastRPC技术连接Qualcomm Hexagon DSP
    本文旨在为初学者提供关于如何使用FastRPC技术连接Qualcomm Hexagon DSP的基础知识。FastRPC技术允许开发者在本地客户端实现远程调用,从而简化Hexagon DSP的开发和调试过程。 ... [详细]
  • 本文介绍了MySQL窗口函数的基本概念、应用场景及常见函数的使用方法。窗口函数在处理复杂查询时非常有用,例如计算每个用户的订单排名、环比增长率、以及动态聚合等。 ... [详细]
  • 一家位于长沙的知名网络安全企业,现面向全国诚聘高级后端开发工程师,特别欢迎具有一线城市经验的技术精英回归故乡,共创辉煌。 ... [详细]
  • 春季职场跃迁指南:如何高效利用金三银四跳槽季
    随着每年的‘金三银四’跳槽高峰期的到来,许多职场人士都开始考虑是否应该寻找新的职业机会。本文将探讨如何制定有效的职业规划、撰写吸引人的简历以及掌握面试技巧,助您在这关键时期成功实现职场跃迁。 ... [详细]
  • 深入理解线程池及其基本实现
    本文探讨了线程池的概念、优势及其在Java中的应用。通过实例分析不同类型的线程池,并指导如何构建一个简易的线程池。 ... [详细]
  • 本笔记记录了几个典型的 LeetCode 编程题目及其解决方案,包括使用两个栈实现队列、计算斐波那契数列、青蛙跳台阶问题以及寻找旋转排序数组中的最小值。 ... [详细]
  • 在尝试加载支持推送通知的iOS应用程序的Ad Hoc构建时,遇到了‘no valid aps-environment entitlement found for application’的错误提示。本文将探讨此错误的原因及多种可能的解决方案。 ... [详细]
  • 本问题涉及在给定的无向图中寻找一个至少包含三个节点的环,该环上的节点不重复,并且环上所有边的长度之和最小。目标是找到并输出这个最小环的具体方案。 ... [详细]
  • 洛谷 P4009 汽车加油行驶问题 解析
    探讨了经典算法题目——汽车加油行驶问题,通过网络流和费用流的视角,深入解析了该问题的解决方案。本文将详细阐述如何利用最短路径算法解决这一问题,并提供详细的代码实现。 ... [详细]
  • OBS Studio自动化实践:利用脚本批量生成录制场景
    本文探讨了如何利用OBS Studio进行高效录屏,并通过脚本实现场景的自动生成。适合对自动化办公感兴趣的读者。 ... [详细]
  • 理解浏览器历史记录(2)hashchange、pushState
    阅读目录1.hashchange2.pushState本文也是一篇基础文章。继上文之后,本打算去研究pushState,偶然在一些信息中发现了锚点变 ... [详细]
  • 本文探讨了有效学习专业技能的方法,包括编程语言、操作系统、软件组件及前沿技术的探索,旨在为初学者提供一套系统的自学指南。 ... [详细]
  • 在Qt框架中,信号与槽机制是一种独特的组件间通信方式。本文探讨了这一机制相较于传统的C风格回调函数所具有的优势,并分析了其潜在的不足之处。 ... [详细]
author-avatar
多米音乐_34249295
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有