如何解决spark 作业使用 local[*] 成功运行,但在使用 docker 映像时失败 - bitnami/spark 在独立模式
我正在尝试运行 Spark 流文档中提到的简单字数统计示例。当我放置 conf.setMaster("local[*]") 时,java 应用程序运行并给出输出 使用独立模式时 - conf.setMaster("spark://localhost:7077") - 作业卡在长时间运行/永无止境的阶段。
我可以在我的 Java 应用程序中看到的日志:
使用 Spark 的默认 log4j 配置文件:org/apache/spark/log4j-defaults.properties 21/04/20 19:37:36 警告 NativeCodeLoader:无法为您的平台加载本机 Hadoop 库...在适用的情况下使用内置 Java 类 21/04/20 19:37:39 警告 KafkaUtils:将执行程序的 enable.auto.commit 覆盖为 false 21/04/20 19:37:39 警告 KafkaUtils:将执行程序的 auto.offset.reset 覆盖为 none 21/04/20 19:37:39 警告 KafkaUtils:覆盖执行程序 group.id 到 spark-executor-spark-stream 21/04/20 19:37:39 警告 KafkaUtils:将 receive.buffer.bytes 覆盖为 65536,参见 KAFKA-3135 21/04/20 19:37:40 警告 SizeEstimator:无法检查是否设置了 UseCompressedOops;假设是 21/04/20 19:37:49 警告 ProcfsMetricsGetter:尝试计算页面大小时出现异常,因此停止报告 Processtree 指标 21/04/20 19:37:55 WARN TaskSchedulerImpl:初始作业未接受任何资源;检查您的集群 UI 以确保工作人员已注册并拥有足够的资源 21/04/20 19:38:10 WARN TaskSchedulerImpl:初始作业未接受任何资源;检查您的集群 UI 以确保工作人员已注册并拥有足够的资源
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。