我已经编写了一个代码,用于从非常大的数据文件中获取输入,对其执行一些简单处理,然后将其存储在搁置字典格式中。我有4100万个条目要处理。然而,在我写下3500万条搁置词典之后,表现突然下降并最终完全停止。任何想法我能做些什么来避免这种情况?Python随着时间的推移将性能写入磁盘
我的数据在twitter上,它将用户屏幕名称映射到其ID。像这样:
Jack 12
Mary 13
Bob 15
我需要非常快地访问每个这些名称。喜欢:当我给my_dict[Jack]
它返回12
。
完整的RAM和交换? – eumiro 2012-07-18 09:09:35
@eumiro是的,这正是我在做什么.. – Amitash 2012-07-18 09:12:58
交换比在RAM中工作慢** **。改变你的数据结构,写入DB(sqlite应该足够了)...没有关于你的数据的更多信息,这很难提供帮助。 – eumiro 2012-07-18 09:15:09