微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

从 neo4j 读取到 spark 时出错

如何解决从 neo4j 读取到 spark 时出错

我按照 (https://neo4j.com/developer/spark/quickstart/) 中的步骤操作并使用以下包:

$SPARK_HOME/bin/spark-shell --packages neo4j-contrib:neo4j-connector-apache-spark_2.12:4.0.1_for_spark_3

现在,在 spark shell 中,当我尝试执行此操作时(在同一站点中提到):

import org.apache.spark.sql.{SaveMode,SparkSession}

val spark = SparkSession.builder().getorCreate()

val df = spark.read.format("org.neo4j.spark.DataSource")
.option("url","bolt://localhost:7687")
.option("authentication.basic.username","neo4j")
.option("authentication.basic.password","neo4j")
.option("labels","Person")
.load()

出现以下错误

java.lang.NoClassDefFoundError:org/apache/spark/sql/sources/v2/ReadSupport

我该怎么做才能解决问题?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。