reduceBykey Spark维护顺序
reduceBykey Spark maintain order
我的输入数据集看起来像
id1, 10, v1
id2, 9, v2
id2, 34, v3
id1, 6, v4
id1, 12, v5
id2, 2, v6
我想要输出
id1; 6,v4 | 10,v1 | 12,v5
id2; 2,v6 | 9,v2 | 34,v3
这就是
id1: array[num(i),value(i)] where num(i) should be sorted
我尝试过的:
获取 id 和第 2 列作为键,sortByKey
,但由于它是一个字符串,
排序不像 int,而是 string
获取第 2 列作为键,sortByKey
,然后获取 ID 和键以及第 2 列
值列,reduceByKey
。但在这种情况下,在做
reduceByKey
;订单未保留。即使 groupByKey
也没有阻止
命令。其实这是预料之中的。
我们将不胜感激。
由于您没有提供有关输入类型的任何信息,我假设它是 RDD[(String, Int, String)]
:
val rdd = sc.parallelize(
("id1", 10, "v1") :: ("id2", 9, "v2") ::
("id2", 34, "v3") :: ("id1", 6, "v4") ::
("id1", 12, "v5") :: ("id2", 2, "v6") :: Nil)
rdd
.map{case (id, x, y) => (id, (x, y))}
.groupByKey
.mapValues(iter => iter.toList.sortBy(_._1))
.sortByKey() // Optional if you want id1 before id2
编辑:
要获得您描述的输出 ,您可以将传递给 mapValues
的函数替换为如下内容:
def process(iter: Iterable[(Int, String)]): String = {
iter.toList
.sortBy(_._1)
.map{case (x, y) => s"$x,$y"}
.mkString("|")
}
我的输入数据集看起来像
id1, 10, v1
id2, 9, v2
id2, 34, v3
id1, 6, v4
id1, 12, v5
id2, 2, v6
我想要输出
id1; 6,v4 | 10,v1 | 12,v5
id2; 2,v6 | 9,v2 | 34,v3
这就是
id1: array[num(i),value(i)] where num(i) should be sorted
我尝试过的:
获取 id 和第 2 列作为键,
sortByKey
,但由于它是一个字符串, 排序不像 int,而是 string获取第 2 列作为键,
sortByKey
,然后获取 ID 和键以及第 2 列 值列,reduceByKey
。但在这种情况下,在做reduceByKey
;订单未保留。即使groupByKey
也没有阻止 命令。其实这是预料之中的。
我们将不胜感激。
由于您没有提供有关输入类型的任何信息,我假设它是 RDD[(String, Int, String)]
:
val rdd = sc.parallelize(
("id1", 10, "v1") :: ("id2", 9, "v2") ::
("id2", 34, "v3") :: ("id1", 6, "v4") ::
("id1", 12, "v5") :: ("id2", 2, "v6") :: Nil)
rdd
.map{case (id, x, y) => (id, (x, y))}
.groupByKey
.mapValues(iter => iter.toList.sortBy(_._1))
.sortByKey() // Optional if you want id1 before id2
编辑:
要获得您描述的输出 mapValues
的函数替换为如下内容:
def process(iter: Iterable[(Int, String)]): String = {
iter.toList
.sortBy(_._1)
.map{case (x, y) => s"$x,$y"}
.mkString("|")
}