微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何将spark-streaming-kafka-assembly.jar添加到python代码中的spark罐子中

如何解决如何将spark-streaming-kafka-assembly.jar添加到python代码中的spark罐子中

我是Spark和Kafka环境的新手。根据我的工作,我必须使用kafka生产程序来生成一些记录,然后使用python代码中的spark流将这些记录作为流接收。我对与我的问题有关的许多网站都加了红色。由此,我知道,我必须将spark-streaming-kafka-assemble-0.8 .... jar文件添加到spark jar文件。这样,我就可以使用此导入KafkaUtils,

from pyspark.streaming.kafka import KafkaUtils

当我尝试这样捐赠时,

from kafka import KafkaProducer
from pyspark import SparkContext
from pyspark.streaming import StreamingContext
from pyspark.streaming.kafka import KafkaUtils

显示类似错误

ModuleNotFoundError                       Traceback (most recent call last)
<ipython-input-2-5a4c58a69039> in <module>
----> 1 from kafka import KafkaProducer
      2 #from kafka import KafkaConsumer
      3 from pyspark import SparkContext
      4 from pyspark.streaming import StreamingContext
      5 from pyspark.streaming.kafka import KafkaUtils

ModuleNotFoundError: No module named 'kafka'

我知道这是因为缺少kafka jar文件。我尝试了很多次,将jar文件添加到spark jar,但是我做不到。我不知道我在python代码中犯了什么错误。许多文章说,使用spark-submit,可以添加jar文件。任何人都可以帮助我如何逐步将spark-streaming-kafka-assemble-0.8 .... jar文件添加到spark jar文件中。因为我不知道我必须在哪里存储下载的jar文件以及如何继续执行spark-submit。我对此完全陌生。我希望它在python中。因此,请分享您对我的疑问的看法。 预先感谢...

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。