Neo4j - 将非常大的CSV导入现有数据库

时间:2017-07-28 08:08:21

标签: python csv neo4j cypher neo4j-shell

我对Neo4j很陌生,已经失去了所有过时的文档和非常不清楚的命令,它们的效果或速度。

我正在寻找一种快速导入一些非常大的数据的方法。 对于一种数据,数据采用B标度,分为多个CSV,但我不介意将其融合为一个。

进行非常简单的导入(加载csv ... create(n:XXX {id:row.id}) 花费很多年,特别是使用独特的指数,需要数天。 我停止了操作,丢弃了唯一索引并重新启动,速度提高了约2倍,但仍然太慢。

我知道neo4j-import(虽然已弃用,但neo4j网站上没有关于" neo4j-admin import" 的文档)。它已经非常不清楚如何做有条件的简单事情。 最糟糕的是它似乎无法与现有数据库一起使用

主要问题是,无论如何加速使用neo4j导入非常大的CSV文件? 首先是简单的声明,比如创建,但希望也有匹配。 现在,运行一个cypher命令,例如" 匹配(n:X {id:" Y"})返回n limit 1 "在1B节点上花费多分钟。

(我在服务器上运行此操作,具有200GB + RAM和48CPU,因此从硬件角度来看可能不是限制。)

0 个答案:

没有答案