微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

在 spark rdd 中将 lambda 定义作为元组的一部分会导致大小的巨大增加

如何解决在 spark rdd 中将 lambda 定义作为元组的一部分会导致大小的巨大增加

我正在维护一些仍然使用 RDD api 的旧 Spark 1.6 代码我有这个 rdd 以 String 作为键和 lambda 作为值,lambda 是:

override def setMeasureIdFunction = (a,ctx,_) => {
      if (a.getPodStatus != dispatchStatus.disPATCHABLE) None else Some { measureId =>
        val realMeasureId = Option(a.getMeasureId).getorElse(Long.Box(measureId))
        a.setMeasureId(realMeasureId)
        (a,MeasureIdSendRecord(a.getPod,realMeasureId,List(a.getMeasSentId),Receivers.MELT,ctx.dispatchType.getFullType,None,a.getLastUpdAuth))
      }
    }

返回的案例类除了实例化对象之外什么都不做。 任何人都知道这个东西如何将我以前的 RDD 的内存大小从 880MB 增加到 56GB

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。