作者介绍
刘彦鹏,网易杭州研究院数据库工程师innerjoin。
ClickHouse作为一款开源列式数据库管理系统(DBMS)近年来备受关注,主要用于数据分析(OLAP)领域innerjoin。作者根据以往经验和遇到的问题,总结出一些基本的开发和使用规范,以供使用者参考。
随着公司业务数据量日益增长,数据处理场景日趋复杂,急需一种具有高可用性和高性能的数据库来支持业务发展,ClickHouse是俄罗斯的搜索公司Yandex开源的MPP架构的分析引擎,号称比事务数据库快100-1000倍,最大的特色是高性能的向量化执行引擎,而且功能丰富、可靠性高innerjoin。
在过去的一年中,杭研DBA团队已经支撑网易集团内部多个事业部上线使用,集群规模共计十几套,CPU近3000核,每日近千亿数据入库,千亿级别表查询可在秒级完成,大大提升了业务原有OLAP架构的效能,覆盖的业务场景包括:用户行为日志分析,进行PV、UV、留存、转化漏斗和操作,包括游戏反外挂数据统计分析;用户画像,人群圈定和问卷投放;AB实验数据的实时计算与分析;机器和业务日志的分析、监控、查询等innerjoin。
一、ClickHouse应用场景
1、写在前面
1)如果你的业务预算或机器资源有限,强烈不推荐使用clickhouse,因为这套架构成本比较高innerjoin。
2)最小集群部署所需机器:ck节点需要2台256G内存/40c cpu物理机,磁盘使用SSD,加上3台zookeeper和2台chproxy应用主机或者云主机innerjoin。
3)Clickhouse自带了丰富的功能来应对复杂的业务场景和大数据量,所以在使用期间需要运维和开发侧都投入人力对这些功能(表引擎类型)学习和掌握innerjoin。
2、业务在数据层的表现
1)业务大多数是读请求,存储宽表,无大字段,较少的并发(单台100-200qps左右)innerjoin。
2)数据批写入(1000条以上,线上业务建议5w-10w),不修改或少修改已添加的数据innerjoin。
3)无事务要求,对数据一致性要求低innerjoin。
4)对于简单查询,允许延迟大约50毫秒,每一个查询除了一个大表外都很小innerjoin。
5)处理单个查询时需要高吞吐量(每个服务器每秒高达数十亿行)innerjoin。
3、具体业务场景
1)用户行为分析innerjoin,精细化运营分析:日活,留存率分析,路径分析,有序漏斗转化率分析,Session分析等;
展开全文
2)实时日志分析innerjoin,监控分析;
3)实时数仓innerjoin。
二、表引擎选择
ClickHouse表引擎一共分为四个系列,分别是Log、MergeTree、Integration、Specialinnerjoin。其中包含了两种特殊的表引擎Replicated、Distributed,功能上与其他表引擎正交,目前业务上主要使用MergeTree系列,配合使用Mview和Distributed引擎。
ClickHouse 包含以下几种常用的引擎类型:
MergeTree 引擎
该系列引擎是执行高负载任务的最通用和最强大的表引擎,它们的特点是可以快速插入数据以及进行后续的数据处理innerjoin。该系列引擎还同时支持数据复制(使用Replicated的引擎版本),分区 (partition) 以及一些其它引擎不支持的额外功能。
Log 引擎
该系列引擎是具有最小功能的轻量级引擎innerjoin。当你需要快速写入许多小表(最多约有100万行)并在后续任务中整体读取它们时使用该系列引擎是最有效的。
集成引擎
该系列引擎是与其它数据存储以及处理系统集成的引擎,如 Kafka,MySQL 以及 HDFS 等,使用该系列引擎可以直接与其它系统进行交互,但也会有一定的限制,如确有需要,可以尝试一下innerjoin。
特殊引擎
该系列引擎主要用于一些特定的功能,如 Distributed 用于分布式查询,MaterializedView 用来聚合数据,以及 Dictionary 用来查询字典数据等innerjoin。
在所有的表引擎中,最为核心的当属MergeTree系列表引擎,这些表引擎拥有最为强大的性能和最广泛的使用场合innerjoin。对于非MergeTree系列的其他引擎而言,主要用于特殊用途,场景相对有限。而MergeTree系列表引擎是官方主推的存储引擎,支持几乎所有ClickHouse核心功能,下面主要介绍MergeTree系列表引擎。
1、MergeTree表引擎
MergeTree在写入一批数据时,数据总会以数据片段的形式写入磁盘,且数据片段不可修改innerjoin。为了避免片段过多,ClickHouse会通过后台线程,定期合并这些数据片段,属于相同分区的数据片段会被合成一个新的片段。这种数据片段往复合并的特点,也正是合并树名称的由来。
MergeTree作为家族系列最基础的表引擎innerjoin,主要有以下特点:
存储的数据按照主键排序:允许创建稀疏索引innerjoin,从而加快数据查询速度
支持分区,可以通过PRIMARY KEY语句指定分区字段innerjoin。
支持数据副本
支持数据采样
建表语法:
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
( name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1] [TTL expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2] [TTL expr2],
INDEX index_name1 expr1 TYPE type1(...) GRANULARITY value1,
INDEX index_name2 expr2 TYPE type2(...) GRANULARITY value2
) ENGINE = MergeTree()
ORDER BY expr
[PARTITION BY expr]
[PRIMARY KEY expr]
[SAMPLE BY expr]
[TTL expr [DELETE|TO DISK 'xxx'|TO VOLUME 'xxx'], ...]
[SETTINGS name=value, ...]
ENGINE:ENGINE = MergeTree()innerjoin,MergeTree引擎没有参数
ORDER BY:排序字段innerjoin。比如ORDER BY (Col1, Col2),值得注意的是,如果没有指定主键,默认情况下 sorting key(排序字段)即为主键。如果不需要排序,则可以使用ORDER BY tuple()语法,这样的话,创建的表也就不包含主键。这种情况下,ClickHouse会按照插入的顺序存储数据。必选。
PARTITION BY:分区字段,强烈建议指定innerjoin。
PRIMARY KEY:指定主键,如果排序字段与主键不一致,可以单独指定主键字段innerjoin。否则默认主键是排序字段。可选。
SAMPLE BY:采样字段,如果指定了该字段,那么主键中也必须包含该字段innerjoin。比如SAMPLE BY intHash32(UserID) ORDER BY (CounterID, EventDate, intHash32(UserID))。可选。
TTL:数据的存活时间innerjoin。在MergeTree中,可以为某个列字段或整张表设置TTL。当时间到达时,如果是列字段级别的TTL,则会删除这一列的数据;如果是表级别的TTL,则会删除整张表的数据。大表强烈建议指定。
SETTINGS:额外的参数配置innerjoin。一般设置index_granularity=8192 ,可选。
2、ReplicatedMergeTree表引
ReplicatedMergeTree使得以上 MergeTree 家族拥有副本机制,保证高可用,用于生产环境,对于大数据量的表来说不推荐使用,因为副本是基于zk做数据同步的,大数据量会对zk造成巨大压力,成为整个ck整个集群瓶颈innerjoin。业务可以根据数据重要程度在性能和数据副本之间做选择。
建表示例:
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(`id` Int64, `ymd` Int64)
ENGINE = ReplicatedMergeTree('/clickhouse/tables/replicated/{shard}/test', '{replica}')
PARTITION BY ymd
ORDER BY id
/clickhouse/tables/ 这一部分指定的是在ZK上创建的路径地址,可随意变换只要记得即可innerjoin。
{shard} 指的是分片的标志,同一个分片内的所有机器应该保持相同innerjoin。建议使用使用的是集群名+分片名的配置也就是{layer}-{shard},这里的数据就是在macros中配置的属性。
test 建议使用表名称innerjoin。
{replica} 参数建议在macros配置成机器的hostname,因为每台机器的hostname都是不一样的,因此就能确保每个表的识别符都是唯一的了innerjoin。
3、ReplacingMergeTree表引
上文提到MergeTree表引擎无法对相同主键的数据进行去重,ClickHouse提供了ReplacingMergeTree引擎,可以针对相同主键的数据进行去重,它能够在合并分区时删除重复的数据innerjoin。值得注意的是,ReplacingMergeTree只是在一定程度上解决了数据重复问题,但是并不能完全保障数据不重复。
建表语法:
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
( name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
) ENGINE = ReplacingMergeTree([ver])
[PARTITION BY expr]
[ORDER BY expr]
[PRIMARY KEY expr]
[SAMPLE BY expr]
[SETTINGS name=value, ...]
[ver]:可选参数,列的版本,可以是UInt、Date或者DateTime类型的字段作为版本号innerjoin。该参数决定了数据去重的方式。
当没有指定[ver]参数时,保留最新的数据;如果指定了具体的值,保留最大的版本数据innerjoin。
注意点:
去重规则
ReplacingMergeTree是支持对数据去重的,去除重复数据时,是以ORDERBY排序键为基准的,而不是PRIMARY KEYinnerjoin。
何时删除重复数据
在执行分区合并时,会触发删除重复数据innerjoin。optimize的合并操作是在后台执行的,无法预测具体执行时间点,除非是手动执行。
不同分区的重复数据不会被去重
ReplacingMergeTree是以分区为单位删除重复数据的innerjoin。只有在相同的数据分区内重复的数据才可以被删除,而不同数据分区之间的重复数据依然不能被剔除。
4、SummingMergeTree表引
该引擎继承了MergeTree引擎,当合并 SummingMergeTree 表的数据片段时,ClickHouse 会把所有具有相同主键的行合并为一行,该行包含了被合并的行中具有数值数据类型的列的汇总值,即如果存在重复的数据,会对对这些重复的数据进行合并成一条数据,类似于group by的效果innerjoin。
推荐将该引擎和 MergeTree 一起使用innerjoin。例如,将完整的数据存储在 MergeTree 表中,并且使用 SummingMergeTree 来存储聚合数据。这种方法可以避免因为使用不正确的主键组合方式而丢失数据。
如果用户只需要查询数据的汇总结果,不关心明细数据,并且数据的汇总条件是预先明确的,即GROUP BY的分组字段是确定的,可以使用该表引擎innerjoin。
建表语法:
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
( name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
ENGINE = SummingMergeTree([columns]) -- 指定合并汇总字段
[PARTITION BY expr]
[ORDER BY expr]
[SAMPLE BY expr]
[SETTINGS name=value, ...]
注意点:
要保证PRIMARY KEY expr指定的主键是ORDER BY expr 指定字段的前缀innerjoin,比如
-- 如下情况是允许的:
ORDER BY (A,B,C)
PRIMARY KEY A
-- 如下情况会报错:
DB::Exception: Primary key must be a prefix of the sorting key
ORDER BY (A,B,C)
PRIMARY KEY B
这种强制约束保障了即便在两者定义不同的情况下,主键仍然是排序键的前缀,不会出现索引与数据顺序混乱的问题innerjoin。
总结:
SummingMergeTree是根据什么对两条数据进行合并的用ORBER BY排序键作为聚合数据的条件Keyinnerjoin。即如果排序key是相同的,则会合并成一条数据,并对指定的合并字段进行聚合。
仅对分区内的相同排序key的数据行进行合并以数据分区为单位来聚合数据innerjoin。当分区合并时,同一数据分区内聚合Key相同的数据会被合并汇总,而不同分区之间的数据则不会被汇总。
如果没有指定聚合字段innerjoin,会怎么聚合如果没有指定聚合字段,则会按照非主键的数值类型字段进行聚合
对于非汇总字段的数据,该保留哪一条如果两行数据除了排序字段相同,其他的非聚合字段不相同,那么在聚合发生时,会保留最初的那条数据,新插入的数据对应的那个字段值会被舍弃innerjoin。
5、Aggregatingmergetree表引
该表引擎继承自MergeTree,可以使用 AggregatingMergeTree 表来做增量数据统计聚合innerjoin。如果要按一组规则来合并减少行数,则使用 AggregatingMergeTree 是合适的。
AggregatingMergeTree是通过预先定义的聚合函数计算数据并通过二进制的格式存入表内innerjoin。与SummingMergeTree的区别在于:SummingMergeTree对非主键列进行sum聚合,而AggregatingMergeTree则可以指定各种聚合函数。
建表语法:
CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
( name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
ENGINE = AggregatingMergeTree()
[PARTITION BY expr]
[ORDER BY expr]
[SAMPLE BY expr]
[SETTINGS name=value, ...]
6、其innerjoin他特殊的表引
Distributed表引擎
Distributed表引擎是分布式表的代名词,它自身不存储任何数据,数据都分散存储在某一个分片上,能够自动路由数据至集群中的各个节点,所以Distributed表引擎需要和其他数据表引擎一起协同工作innerjoin。
所以,一张分布式表底层会对应多个本地分片数据表,由具体的分片表存储数据,分布式表与本地分片数据表是一对多的关系innerjoin。
Distributed表引擎的定义形式如下所示:
Distributed(cluster_name, database_name, table_name[, sharding_key])
各个参数的含义分别如下:
cluster_name:集群名称,与集群配置中的自定义名称相对应innerjoin。
database_name:数据库名称innerjoin。
table_name:表名称innerjoin。
sharding_key:可选的,用于分片的key值,在数据写入的过程中,分布式表会依据分片key的规则,将数据分布到各个节点的本地表innerjoin。
创建分布式表是读时检查的机制,也就是说对创建分布式表和本地表的顺序并没有强制要求innerjoin。
同样值得注意的是,在上面的语句中使用了ON CLUSTER分布式DDL,这意味着在集群的每个分片节点上,都会创建一张Distributed表,这样便可以从其中任意一端发起对所有分片的读、写请求innerjoin。
三、开发规范
1、查询sql编写规范
1)当多表联查时,查询的数据仅从其中一张表出时,可考虑使用IN操作而不是JOINinnerjoin。
2)多表查询性能较差,多表Join时要满足小表在右的原则,右表关联时被加载到内存中与左表进行比较,ClickHouse中无论是Left Join 、Right Join还是Inner Join永远都是拿着右表中的每一条记录到左表中查找该记录是否存在,所以右表必须是小表innerjoin。
3)将一些需要关联分析的业务创建成字典表进行join操作,前提是字典表不宜太大,因为字典表会常驻内存innerjoin。
4)禁⽌业务select * ,列存数据,每减少一个字段会减少大量的数据扫描,提升查询效率innerjoin。
5)建议使用 limit 限制返回数据条数使用limit返回指定的结果集数量,不会进行向下扫描,大大提升了查询效率innerjoin。
6)查询时如果可以建议带上分区键查询,可以有效减少数据扫描量,提升查询效率innerjoin。
7)CK的稀疏索引使得点查询(即kv类型的查询)性能不佳,千万不要把它简单当做关系型数据库进行查询innerjoin。
8)使用Global优化分布式子查询,避免出现查询指数级放大innerjoin。
9)使用 uniqCombined 替代 distinctuniqCombined 对去重进行了优化,通过近似去重提升十倍查询性能innerjoin。
10)尽量不去使用字符串类型,时间类型最终会转换成数值类型进行处理,数值类型在执行效率和存储上远好过字符串innerjoin。
11)ClickHouse的分布式表性能性价比不如物理表高,建表分区字段值不宜过多,防止数据导入过程磁盘可能会被打满innerjoin。
12)不要在唯一列或大基数列上进行分组或去重操作,基数太大会消耗过多的io和内存innerjoin。
13)CPU一般在50%左右会出现查询波动,达到70%会出现大范围的查询超时,CPU是最关键的指标,要非常关注innerjoin。
2、数据写入注意事项
1)不适合高并发写入,最好还是从异步化队列写入,batch insert 5w-10w 起步,尽量不要执行单条或插入操作,会产生大量小分区文件,给后台merge任务带来巨大压力innerjoin。
2)几乎完全不支持update/delete,也不支持事务innerjoin。
3)建议表要指定分区键,尤其是数据量大的表,插入/查询/合并都是以分区为单位,合理的分区可以提升整体性能innerjoin。
4)分区不建议太多,如果分区太多,会因需要打开的文件描述符过多导致查询效率不佳innerjoin。
5)数据在写入ClickHouse前预先的对数据进行分组,避免一次插入的数据属于多个分区innerjoin。
6)注意MerTree 主键允许存在重复数据(ReplacingMergeTree可以在分区内去重)innerjoin。
3、建表规范
1)本地表命名格式:{tab_name}_local,分布式表命名格式:{tab_name}_shard innerjoin。
2)物化视图命名规范:{tabl_name_xxx}_mv innerjoin。
3)尽量不要使用Nullable类型,该类型对性能有一定影响,且不能包含在索引中innerjoin。
4)合理设置分区,所有本地表使用order by关键字指定分区字段,建议采用日期作为一级分区innerjoin。默认 order by 字段作为主键。
5)如果表中不是必须保留全量历史数据,建议指定TTL,可以免去手动过期历史数据的麻烦innerjoin。
6)所有复制引擎表建表指定 use_minimalistic_part_header_in_zookeeper=1innerjoin。
本地ReplicatedMergeTree表建表模板如下所示:
CREATE TABLE IF NOT EXISTS ads. ads_af_city_complaint_1d _local ON cluster ycdata_3shards_3replicas
(`id` UInt64 COMMENT '序号',
`order_id` UInt64 COMMENT '订单号',
`gross_weight` UInt64 COMMENT '权重',
`create_time` Date COMMENT '创建时间',
`event` String COMMENT '事件')
ENGINE = ReplicatedMergeTree('/clickhouse/table/{shared}/ads_af_city_complaint_1d _local', '{replica}')
PARTITION BY create_time
ORDER BY id
TTL create_time + toIntervalDay(90)
SETTINGS index_granularity = 8192, use_minimalistic_part_header_in_zookeeper = 1;
解释:
TTL 定义了数据保留策略为90天innerjoin。
{shared},{replica}无需替换为一个具体值innerjoin。
ycdata_3shards_3replicas为clickhouse是集群名称innerjoin。
四、集群架构
1、常用架构
为简化业务使用方式,降低业务使用成本innerjoin。对clickhouse集群的使用做一些约束,能够提升交付速度,提高标准化程度,降低使用成本。
以4台机器为例,集群模式固定为2分片2副本模式,若数据量较大4台机器不够时,可以增加2台机器,集群模式未3分片每个分片2副本形式,另外需要3台zookeeper和2台chproxy应用主机或者云主机,两台chproxy使用NLB管理,程序直连NLB IPinnerjoin。
对于单表数据量超过100亿数据的表不建议使用副本表,建议采用4分片0副本架构innerjoin。(具体架构可以和DBA沟通后确定)
总体上讲,一句话总结:业务访问统一入口,读分布式表,写本地表innerjoin。
1)优势
解决clickhouse集群高可用性,保证单机器宕机情况不影响集群可用性innerjoin。
解决写入分布式表写入效率低以及读分布式表时热点问题innerjoin。
解决写入本地表数据需要业务层路由的问题innerjoin。
降低业务使用门槛,提升交付效率innerjoin。
2)限制
① 业务写入本地表(以_local结尾)innerjoin,读分布式表(以_shard结尾表)
业务表名为musci_bi_t1,则写入musci_bi_t1_local 通过proxy代理轮询写入底层节点保证数据分布均衡;
读musci_bi_t1_shard表,同样可以通过proxy将shard表路由压力分散到底层节点innerjoin。
② 业务写入时需要批量写入,需要业务去保证每批次数据量大小尽量一致,以保证数据尽量均匀分布innerjoin。
③ 业务每批次写入时都要重新获取连接,禁止使用长连接否则无法使用负载均衡能力,会导致数据分布不均衡innerjoin。
④ 不支持跨集群访问
不同集群内的分片以及副本数量不固定,可能会导致某些节点没有local表,会使得写入失败;
统一集群名与database名,防止跨集群访问innerjoin。
3)问题
因业务每批次写入数据量的不同,会导致数据分布的不均匀innerjoin。
4)运维注意点
对业务不透明innerjoin,insert需要指定local结尾表,查询需要查sharded表,需要与业务确认;
副本同步使用底层ReplicatedMergeTree引擎,提升副本同步性能以及数据一致性(需要手动创建底层表,保证主备关系正确);
使用on cluster 语法在每个节点中创建分布式表,提升建表效率innerjoin。
2、zookeeper的关键作用
ClickHouse中依赖Zookeeper解决的问题可以分为两大类:分布式DDL执行、ReplicatedMergeTree表主备节点之间的状态同步innerjoin。zk的性能会影响整个集群的性能表现。使用复制表之后,随着数据量的增加,zookeeper可能成为集群瓶颈,zk集群建议机器配置如下:3台32G/4c机器,万兆网卡,磁盘80G-200G。
可以看作ck把zookeeper用成了目录服务,日志服务和协调服务,当znode达到几百万后,zk出现异常,常见是连接失败,此时有些表会出现readonly模式innerjoin。头条对这个问题的处理方式是改写源码调整ck对zk的使用方式,为zk减重。
如果业务上单表数据量较大并且希望使用复制表,务必在建表时指定use_minimalistic_part_header_in_zookeeper参数为1,达到压缩zk数据的目的innerjoin。
3、chproxy
chproxy官方推荐的是专用于ClickHouse数据库的即是这么一个工具。
1)特性
用户路由和响应缓存
innerjoin。
灵活的限制
。
自动SSL证书续订
。
2)chroxy连接测试
echo 'show databases;' | curl '
关于chroxy参数配置可参照如下文档:
五、客户端工具选择
1、DBeave
DBeaver是免费和开源(GPL)为开发人员和数据库管理员通用数据库工具
innerjoin。易用性是该项目的主要目标,是经过精心设计和开发的数据库管理工具。免费、跨平台、基于开源框架和允许各种扩展写作(插件)。
2、Superse
Superset 是一款由 Airbnb 开源的“现代化的企业级 BI(商业智能) Web 应用程序”,其通过创建和分享 dashboard,为数据分析提供了轻量级的数据查询和可视化方案
innerjoin。
3、Tabi
功能和部署方式与Superset相似
innerjoin,可参考如下文档:
六、可用性说明
根据选择的集群架构不同, clickhouse集群表现出的可用性也不同
innerjoin。
数据的读写高可用就是依赖复制表引擎创建多副本机制保证
。如果Clickhouse集群使用是多分片多副本架构,当一个副本所在的机器宕机后,chproxy层会自动路由到可用的副本读写数据;
如果Clickhouse集群只用了sharding分片
,没有用到复制表作为数据副本,那么单台机器宕机只会影响到单个数据分片的读写;
当zk集群不可用时,整个集群的写入会都会受影响,不管有没有使用复制表
。
总结:
数据可用性要求越高,意味着投入更多的资源,单台机器的资源利用率越低,业务可根据数据重要程度灵活选择,不过Clickhouse的定位是在线分析olap系统,建议业务方将ck里的数据也定义为二级数据,数据丢失后是可以再生成的,从而控制整体架构的成本,提高单台机器的资源利用率
innerjoin。同时强烈建议业务不要强依赖Clickhouse,要有一定的兜底和熔断机制。
七、集群配置参数调优
1)max_concurrent_querie
最大并发处理的请求数(包含select,insert等),默认值100,推荐150(不够再加),在我们的集群中出现过”max concurrent queries”的问题
innerjoin。
2)max_bytes_before_external_sor
当order by已使用max_bytes_before_external_sort内存就进行溢写磁盘(基于磁盘排序),如果不设置该值,那么当内存不够时直接抛错,设置了该值order by可以正常完成,但是速度相对内存来说肯定要慢点(实测慢的非常多,无法接受)
innerjoin。
3)background_pool_size
后台线程池的大小,merge线程就是在该线程池中执行,当然该线程池不仅仅是给merge线程用的,默认值16,推荐32提升merge的速度(CPU允许的前提下)
innerjoin。
4)max_memory_usag
单个SQL在单台机器最大内存使用量,该值可以设置的比较大,这样可以提升集群查询的上限
innerjoin。
5)max_memory_usage_for_all_querie
单机最大的内存使用量可以设置略小于机器的物理内存(留一点内操作系统)
innerjoin。
6)max_bytes_before_external_group_b
在进行group by的时候
innerjoin,内存使用量已经达到了max_bytes_before_external_group_by的时候就进行写磁盘(基于磁盘的group by相对于基于磁盘的order by性能损耗要好很多的),一般max_bytes_before_external_group_by设置为max_memory_usage / 2,原因是在clickhouse中聚合分两个阶段:
查询并且建立中间数据;
合并中间数据 写磁盘在第一个阶段,如果无须写磁盘,clickhouse在第一个和第二个阶段需要使用相同的内存
innerjoin。
这些内存参数强烈推荐配置上,增强集群的稳定性避免在使用过程中出现莫名其妙的异常
。
作者丨刘彦鹏
来源丨公众号:网易有数(ID:Youdata_Netease)
dbaplus社群欢迎广大技术人员投稿
innerjoin,投稿邮箱:editor@dbaplus.cn
更多精彩内容
为夯实数据和算法的“地基”,进一步推动智能运维(AIOps)的深入落地,今晚18:30,中国信息通信研究院云计算与大数据研究所联合dbaplus社群,携手来自微众银行、虎牙直播的AIOps专家,围绕“让数据与算法精准发力,突破智能运维发展困局”这一主题开展线上直播分享,针对《2022 中国AIOps现状调查报告》权威解读、数据智能检测、业务降本增效等内容进行深度探讨,为各行各业的智能运维能力建设提供更明确的参考路径
innerjoin。
复制链接到微信
,可直接免费观看哦~
关于
innerjoin我们
dbaplus社群是围绕Database、BigData、AIOps的企业级专业社群
。资深大咖、技术干货,每天精品原创文章推送,每周线上技术分享,每月线下技术沙龙,每季度Gdevops&DAMS行业大会。
关注公众号【dbaplus社群】
,获取更多原创技术文章和精选工具下载