如何解决Spark 独立集群模式下读取的数据不正确
我已经设置了 Spark 独立模式,有 1 个 master 和 2 个 worker。我使用 spark-submit 启动了 spark 应用程序(java jar),正如预期的那样,我的应用程序在两台工作机器上运行并产生输出。
我可以在两台工作机器中找到零件文件。
Spark 作业如下,
我的 spark 作业从 textFile 读取数据,映射每个数字乘以 2,然后保存输出。
问题是,当我检查两个工作节点的输出时,
Spark 忽略了工作节点 1 中 txtfile 中的数字 50-60。它只考虑了 1-49 和 61-100,并在同一台机器上产生了 8 个部分文件中 2-98 和 122-200 之间的输出。
在第二个工作节点中,它只考虑了 150-160 之间的数字。它在第二个工作节点中产生了 2 个部分文件中 300-320 之间的输出。
不知道为什么 spark 忽略了输入数据的其他部分。
我是否以错误的格式存储数据?还是因为我没有使用 Hdfs?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。