如何解决如何修复 python 上的 Neo4j-spark 连接器错误?
我正在尝试连接spark和neo4j,我的目标是通过在python上使用spark从neo4j中提取数据,我已经在neo4j和python之间建立了连接
my spark version is 2.4.5
python version 3.7.9
我的代码在下面
from pyspark.sql import SparkSession
spark = SparkSession.builder.master("local[1]") \
.appName("SparkByExamples.com") \
.getorCreate()
spark.read.format("org.neo4j.spark.Data Source") \
.option("URL","neo4j:Ip:7687") \
.option("authentication.basic.username","neo4j") \
.option("authentication.basic.password","") \
.option("labels","Person:Customer:Confirmed") \
.load()
但是当我想使用neo4j spark连接器时,虽然我安装了neo4j spark连接器、jars、spark等要求并检查了版本,但我仍然收到此错误:
py4j.protocol.Py4JJavaError: An error occurred while calling o34.load.
: java.lang.classNotFoundException: Failed to find data source: org.neo4j.spark DataSource Please find packages a**strong text**t http://spark.apache.org/third-party-projects.html
实际上我找不到关于我的具体问题的足够文档
我很乐意为您提供帮助...
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。