微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Spark Scala groupByKey 用于数据集错误类型不匹配

如何解决Spark Scala groupByKey 用于数据集错误类型不匹配

嗨,我正在尝试使用自定义案例类对 spark 数据集执行 groupBy 和一些聚合,但一直遇到错误。注意输出数据集我要和原始数据集的类型还是一样的。


case class ExampleRow(
                         a: String,b: String,c: Double,)

val origDataset: Dataset[ExampleRow] = ...
val newDataset: Dataset[ExampleRow] = origDataset
  .groupByKey(r => r.a,r.b)
  .agg(typed.avg[TimeUsageRow](_.other).name("c").as[Double])

我在运行时总是遇到这个错误

type mismatch;
[error]  found   : org.apache.spark.sql.Dataset[((String,String),Double)]
[error]  required: org.apache.spark.sql.Dataset[example.ExampleRow]
[error]       .agg(
[error]           ^
[error] one error found

有什么想法吗?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。