微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

使用 Spark 日志写入 Spark 应用程序 ID

如何解决使用 Spark 日志写入 Spark 应用程序 ID

我已经研究了 1 个月,但找不到好的解决方案。认 Spark 日志不包含应用程序 ID。

认日志包含 - "time":,"date":,"level":,"thread":,"message"

我尝试自定义 log4j 属性,但找不到方法。我是大数据领域的新手。

我的认 log4j.properties 文件

log4j.rootLogger=${hadoop.root.logger}
hadoop.root.logger=INFO,console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{2}: %m%n

有人知道解决办法吗?感谢您的帮助,即使是很小的帮助。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。