Spark高级算子aggregate所遇到的坑

aggregate操作

先对局部聚合,再对全局聚合

示例:val rdd1 = sc.parallelize(List(1,2,3,4,5), 2)

查看每个分区中的元素:

将每个分区中的最大值求和,注意:初始值是0;

如果初始值时候10,则结果为:30,因为在局部操作和全局操作的时候都要计算初始值

如果是求和,注意:初始值是0:

如果初始值是10,则结果是:45

一个字符串的例子:

val rdd2 = sc.parallelize(List("a","b","c","d","e","f"),2)

修改一下刚才的查看分区元素的函数

def func2(index: Int, iter: Iterator[(String)]) : Iterator[String] = {

  iter.toList.map(x => "[partID:" +  index + ", val: " + x + "]").iterator

}

两个分区中的元素:

[partID:0, val: a], [partID:0, val: b], [partID:0, val: c],

[partID:1, val: d], [partID:1, val: e], [partID:1, val: f]

运行结果:

更复杂一点的例子

val rdd3 = sc.parallelize(List("12","23","345","4567"),2)

rdd3.aggregate("")((x,y) => math.max(x.length, y.length).toString, (x,y) => x + y)

两个分区先计算出字符串的最大长度,然后合成字符串

结果可能是:”24”,也可能是:”42”,体现了并行化特点。

 

val rdd4 = sc.parallelize(List("12","23","345",""),2)

rdd4.aggregate("")((x,y) => math.min(x.length, y.length).toString, (x,y) => x + y)

结果是:”10”,也可能是”01”,

原因:注意有个初始值””,其长度0,然后0.toString变成字符串。值"0".toString的长度为0,"0".toString.length的长度为1 。分区可能为(“12”,“23”)和(“345”,“”);初始值为"",然后初始值和“12”,“34”比较,或者是""和“345”比较,然后和“”比较。

math.min("".length, "12".length ) 的结果是:0 , math.min("0".length, "23".length ) 的结果是1

math.min("".length, "345".length) 的结果是:0 , math.min("0".length, "".length)  的结果是:0  

 

 

val rdd5 = sc.parallelize(List("12","23","","345"),2)

rdd5.aggregate("")((x,y) => math.min(x.length, y.length).toString, (x,y) => x + y)

结果是:”11”,原因如下:

math.min("".length, "12".length ) 的结果是:0 , math.min("0".length, "23".length ) 的结果是:1  

math.min("".length, "".length) 的结果是:0 , math.min("0".length, "345".length) 的结果是:1  

注意:值"0".toString的长度为0,"0".toString.length的长度为1

 

 

 

 

猜你喜欢

转载自blog.csdn.net/liuzhuang2017/article/details/83115626