Spark GroupBy 聚合函数

Spark GroupBy Aggregate functions

case class Step (Id : Long,
                 stepNum : Long,
                 stepId : Int,
                 stepTime: java.sql.Timestamp
                 )

我有一个数据集 [Step],我想对 "Id" 列执行 groupBy 操作。 我的输出应该类似于 Dataset[(Long, List[Step])]。我该怎么做?

假设变量 "inquiryStepMap" 是 Dataset[Step] 类型,那么我们可以使用 RDD 来实现,如下所示

val inquiryStepGrouped: RDD[(Long, Iterable[Step])] = inquiryStepMap.rdd.groupBy(x => x.Id)

看来你需要groupByKey:

样本:

import java.sql.Timestamp    
val t = new Timestamp(2017, 5, 1, 0, 0, 0, 0)    
val ds = Seq(Step(1L, 21L, 1, t), Step(1L, 20L, 2, t), Step(2L, 10L, 3, t)).toDS()

groupByKey 然后 mapGroups:

ds.groupByKey(_.Id).mapGroups((Id, Vals) => (Id, Vals.toList))
// res18: org.apache.spark.sql.Dataset[(Long, List[Step])] = [_1: bigint, _2: array<struct<Id:bigint,stepNum:bigint,stepId:int,stepTime:timestamp>>]

结果如下:

ds.groupByKey(_.Id).mapGroups((Id, Vals) => (Id, Vals.toList)).show()
+---+--------------------+
| _1|                  _2|
+---+--------------------+
|  1|[[1,21,1,3917-06-...|
|  2|[[2,10,3,3917-06-...|
+---+--------------------+