1
case class Step (Id : Long, 
       stepNum : Long, 
       stepId : Int, 
       stepTime: java.sql.Timestamp 
       ) 

我有一个数据集[步骤],我想对“Id”列执行groupBy操作。 我的输出应该看起来像Dataset [(Long,List [Step])]]。我该怎么做呢?Spark GroupBy聚合函数

可以说变量 “inquiryStepMap” 是一个类型的数据集[步骤]然后,我们可以按照如下

val inquiryStepGrouped: RDD[(Long, Iterable[Step])] = inquiryStepMap.rdd.groupBy(x => x.Id) 

回答

1

看来你需要groupByKey与RDDS做到这一点:

样品:

import java.sql.Timestamp  
val t = new Timestamp(2017, 5, 1, 0, 0, 0, 0)  
val ds = Seq(Step(1L, 21L, 1, t), Step(1L, 20L, 2, t), Step(2L, 10L, 3, t)).toDS() 

groupByKey然后mapGroups

ds.groupByKey(_.Id).mapGroups((Id, Vals) => (Id, Vals.toList)) 
// res18: org.apache.spark.sql.Dataset[(Long, List[Step])] = [_1: bigint, _2: array<struct<Id:bigint,stepNum:bigint,stepId:int,stepTime:timestamp>>] 

而结果是这样的:

ds.groupByKey(_.Id).mapGroups((Id, Vals) => (Id, Vals.toList)).show() 
+---+--------------------+ 
| _1|     _2| 
+---+--------------------+ 
| 1|[[1,21,1,3917-06-...| 
| 2|[[2,10,3,3917-06-...| 
+---+--------------------+