在聚合操作中,需要指定键或分组方式,以及指定如何转换一列或多列数据的聚合函数。s
除了处理任意类型的值之外,Spark还可以创建以下分组类型:
- 最简单的分组通过在select语句中执行聚合来汇总整个DataFrame
- “group by”指定一个或者多个key也可以指定一个或者多个聚合函数,来对包括value的列执行行转换操作。
- “window”指定一个或者多个key也可以指定一个或者多个聚合函数,来对包含value的列执行转换操作。
- “grouping set”可用于在多个不同级别进行聚合。grouping set是SQL中的一个保留字,而在DataFrame中需要使用rollup和cube。
- “rollup”指定一个或多个key,也可以指定一个或多个聚合函数,来对包含value的列执行转换操作,并会针对指定的多个key进行分级分组汇总。
- “cube”指定一个或多个key,也可以指定一个或多个聚合函数,来对包含value 的列执行转换操作,并会针对指定的多个key进行全组合分组汇总。
注意:要获得一个精确的结果,开销会非常大。但是计算出一个近似的结果要相对容易的多。通常使用一些近似函数,会提高spark作业的效率
聚合函数
count函数
count函数是一个转换操作而不是一个动作操作。
count可以执行以下2种操作:
- 对指定列进行计数
- 使用count(*)或count(1)对所有列进行计数
approx_count_distinct函数
功能与count_distinct一样,但是统计的结果允许有误差。这里approx_count_distinct的另一个参数就指定了可容忍的误差的最大误差。
sumDistinct函数
去重后,进行求sum
方差和标准差
注意:Spark既支持统计样本的标准差,也支持统计总体的标准差。
skewness和kurtosis
偏度系数(skewness)和峰度系数(kurtosis)都是对数据集中的极端数据点的衡量指标。
偏度系数衡量数据相对于平均值的不对称程度。
峰度系数衡量数据分布形态陡缓程度。
协方差和相关性
cov和corr,它们分别用于计算协方差和相关性。相关性采用Pearson相关系数来衡量,范围是-1~+1。协方差的范围由数据中的输入决定。
注意:协方差又分为样本协方差和总体协方差。
聚合输出复杂类型
分组
分组操作的步骤:
- 指定要对其进行分组的一列或者多列。
- 指定一个或者多个聚合操作。
利用表达式分组
使用Map进行分组
Map是以键为列,值为要执行的字符串形式的聚合函数。
window函数
在指定数据“窗口”上执行聚合操作,并使用对当前数据的引用来定义它,此窗口指定将哪些行传递给此函数。
注意:group-by与窗口函数之间的区别:
在使用group-by处理数据时,每一行只能进入一个分组;窗口函数基于称为框的一组行,计算表的每一输入行的返回值。也就是说一行数据,在不同的框中属于不用的组。
Spark支持三种窗口函数:排名函数、解析函数和聚合函数。
分组集
group-by表达式可以对一组列上的值进行聚合操作。
rollup
当我们设置分组的key为多个列时,Spark会分析这些列,并根据各列中存在的实际数值,确定列值组合作为分组的key。而rollup分组聚合是一种多维聚合操作,可以执行多种不同group-by风格的计算。
cube
cube分组聚合则更进一步,它不同于rollup的分级聚合,而是对所有参与的列值进行所有维度的全组合聚合。
对元数据进行分组
透视转换
透视转换可以根据列中的不同行创建多个列。
用户自定义的聚合函数
用户定义的聚合函数(UDAF)是用户根据自定义公式或业务逻辑定义自己的聚合函数的一种方法。可以使用UDAF来计算输入数据组的自定义计算。