如何解决将巨大的CSV数据集导入neo4j很慢
我正在尝试尽快导入海量数据集。 目前,有35928811个节点和109176328关系。
我仍然有很多数据要导入,并且变得非常慢。 我在具有6GB RAM的VM机器上运行数据库。我是从服务器上加载的CSV文件导入的。 我尝试使用具有批处理提交事务的脚本进行导入,但它与服务器上的RAM一样是瓶颈。
/ var / lib / neo4j /数据大小目前不足12GB。
我正在考虑在AWS中增加具有更多ram和NVME驱动器的VM计算机。
问题是我应该使用多少RAM? 16GB的机器就足够了,还是我应该购买更多? 我读到NEO4J如果可以使用尽可能多的RAM,甚至整个DB都可以缓存在RAM中,则效果最好。
有什么建议吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。