如何解决使用 Neo4j-Spark 连接器时指定数据库名称
在最新版本的 Neo4j-Spark connector (4.0.0) 中,官方文档中有一个示例,演示了使用 spark (here) 读取 Neo4j:
import org.apache.spark.sql.{SaveMode,SparkSession}
val spark = SparkSession.builder().getOrCreate()
spark.read.format("org.neo4j.spark.DataSource")
.option("url","bolt://localhost:7687")
.option("labels","Person")
.load()
.show()
想象一下,我有几个数据库在“bolt://localhost:7687”上运行。我想知道如何指定要从中读取数据的数据库名称。这个连接器甚至支持这种交易吗?
解决方法
在 driver configuration
部分 https://neo4j.com/developer/spark/configuration/ 中,您可以找到选项 database
用于指定要使用的数据库:
spark.read.format("org.neo4j.spark.DataSource")
.option("url","bolt://localhost:7687")
.option("database","mydb")
.option("labels","Person")
.load()
.show()
您还可以在此处找到该选项的源代码:https://github.com/neo4j-contrib/neo4j-spark-connector/blob/4.0/src/main/scala/org/neo4j/spark/Neo4jOptions.scala#L83
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。