2016-01-13 94 views
0

我在python中使用网络爬虫(Scrapy)来连续下载数据(单词),并通过py2neo实时将节点保存为neo4j。 我的代码只是看起来像:当使用py2neo时,Java内存不断增加

graph = Graph("http://localhost:7474/db/data/") 

def create(graph,word): 
    node=graph.merge_one("WORD","name",word) 
    return node 

我的网络蜘蛛调用此函数创建它每次得到一个字。然而,当我的蜘蛛抓取网页时,我发现Neo4j的Jave记忆力不断增加。因为我的蜘蛛会跑几个星期,恐怕有一天会失去记忆。我只想每次创建一个节点,之后不会使用此节点,为什么Java内存不断增加?我认为创建的节点对象始终保持在Java中,但如何释放这些不必要的对象?那么有什么方法可以保持Java内存不增加?

在此先感谢

回答

0

对不起对此。

我刚刚发现,当Java内存达到一定的数值​​时,它会自动减少并再次增加。对不起这个问题,我是新手neo4j和Java

相关问题