2013-02-15 72 views
0

我有一种情况,我的脚本解析大约20000个条目并将它们保存到数据库。我已经使用了大约需要35秒的事务来保存并消耗高内存,因为直到提交的查询保存在内存中。用python编写文件

我已经找到另一种方式来编写CSV,然后使用“copy_from”加载到postgres中,这非常快。如果有人可以建议,如果我应该在开始时打开一次文件,然后关闭文件,同时加载到postgres或打开文件,当单个条目准备好写入然后关闭。

什么是节省内存使用率的最佳方法?

回答

1

减少交易规模?

+0

如果我提交了1000条记录或5000条记录,那么20000条记录的累计时间从单条20000条记录增加到 – sharafjaffri 2013-02-15 07:54:20

+1

。这是内存使用和速度之间的折中。 – hd1 2013-02-15 07:55:21

+0

什么是交易的最佳尺寸? – sharafjaffri 2013-02-15 08:04:05