如何创建List [Row]类型的编码器以在spark中创建数据集[List [Row]]?

时间:2018-05-24 11:20:20

标签: scala apache-spark

基本上,我正在表演' groupbyKey'其次是' mapGroups'火花数据框的转换。 ' mapGroups'将产生数据集[U],这需要一个类型为“U'”的编码器。我正在将每组值转换为List [Row]类型,因为我必须传递一个Encoder。我能够创建类型' Row'通过其架构,但不知道如何为列表[行]'创建编码器。数据类型。

import sqlContext.implicits._
import org.apache.spark.sql._
import org.apache.spark.sql.catalyst.encoders._
val groupedDataset = df.repartition($"_id")
                        .groupByKey(row => row.getAs[Long]("_id"))
                        .mapGroups((key,value) => value.toList)( ??? Here Encoder of List[Row] is Required ???)`

1 个答案:

答案 0 :(得分:0)

你可以使用Seq和import spark.implicits._ 但如果您使用

,则不需要实现它

CarBookingPolicy

相关问题