微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

scala – 为什么Apache Spark的功能不兼容?

http://spark.apache.org/docs/latest/programming-guide.html阅读Apache Spark指南它说:

为什么取功能不能并行运行?并行实现这种功能有什么困难?是否与事实有关,为了获取RDD的前n个元素,需要遍历整个RDD?

解决方法

实际上,虽然take并不是完全平行的,但它也不是完全顺序的.

例如,假设您采用(200),每个分区有10个元素. take将首先获取分区0并看到它有10个元素.它假定它需要20个这样的分区来获得200个元素.但是最好在并行请求中要求更多.所以它需要30个分区,它已经有1.所以它接下来并行地获取分区1到29.这可能是最后一步.如果它非常不吉利,并且没有找到总共200个元素,它将再次进行估算并同时请求另一批.

查看代码,它有详细记录:
https://github.com/apache/spark/blob/v1.2.0/core/src/main/scala/org/apache/spark/rdd/RDD.scala#L1049

我认为文档是错误的.只有在需要单个分区时才会进行本地计算.这是第一次传递(获取分区0)的情况,但通常不是后续传递中的情况.

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐