微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

通过数据块环境将 2200 万条记录加载到 neo4j 数据库中

如何解决通过数据块环境将 2200 万条记录加载到 neo4j 数据库中

我正在使用 neo4j spark 连接器并通过 databricks 环境 - 我已将 2200 万条记录加载到 neo4j 数据库中,同时通过查询为这 2200 万条记录建立关系

CALL apoc.periodic.iterate('Match (jh:JournalHeader) return jh','with jh MATCH (jli:JournalLineItem) where jli.glheader_id = jh.glheader_id  MERGE (jh)-[:HAS_PARENT]->(jli)',{batchSize:1000,parallel:false}) 
yield batch return null;")

虽然在 neo4j 数据库中建立了所需的关系。 Spark 作业挂起,没有更新正在写入。

有没有办法使查询更有效,以便一旦建立关系,它将完成工作。因为在这种情况下,尽管建立了关系,但查询仍在搜索在这种情况下不需要的所有其他记录

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。