pyspark rdd的combineByKey的高级API使用方法,多行按某列合为一行

combineByKey是比较底层的高级用法,如dataframe或rdd的groupby,rdd的reduce、reduceByKey等都依赖与它。
combineByKey入参是三个function函数,分别针对单个的(k,v)转为(k,c)新的一行对象,(k,c)与(k,v)的合并,(k,c)与(k,c)的合并,最终整体转化为(k,c)这样的新键值对集合

最简单的示例:
https://spark.apache.org/docs/2.3.1/api/python/pyspark.html#pyspark.RDD
搜索找到combineByKey函数
python spark的环境

x = sc.parallelize([("a", 1), ("b", 1), ("a", 2)])
def to_list(a): #单个v 转c
    return [a]
def append(a, b): #c 与v 合并
    a.append(b)
    return a
def extend(a, b): #c 与 c 合并
    a.extend(b)
    return a
sorted(x.combineByKey(to_list, append, extend).collect())
[('a', [1, 2]), ('b', [1])]

复杂用例可见我的每个用户登录方式百分比分布统计的用例文章

猜你喜欢

转载自blog.csdn.net/u010720408/article/details/94434643