我遇到了一些代码有点麻烦。请记住,我是一个可怕的程序员,所以我的解决方案可能不是很有说服力(可能是我内存不足的原因 - 我有4千兆字节,脚本缓慢地填满了它)。Python内存不足(使用后缀树)
这是问题所在。我在一个目录中有大约3,500个文件。每个文件由一行代码组成,这些代码行可以包含相对较少或很多字符,且不含空格(最小的文件是200字节,最大的是1.3 MB)。我想要做的是在这些文件之间找到两个设置长度的共同子字符串(在下面的代码中是13个字符)。我一次只做两个,因为我没有在所有这些文件中寻找一个共同的子串,而是两个组合,直到所有文件进行比较。即,文件之间设置长度的任何常见子字符串,而不是所有这些文件共有的子字符串。
我使用后缀树模块来封装C实现(over here)。首先我列出目录中的所有文件,然后查找两个组合,以便涵盖所有组合,我一次将两个文件传递到后缀树,然后查找常见子串的序列。
但是,我真的不知道它为什么会慢慢地耗尽内存。我希望我们可以对代码进行修改,以便以某种方式清除未使用内容的内存?显然有3,500个文件需要很长时间才能处理,但我希望可以在不增量填充4千兆字节的内存的情况下完成。任何帮助将不胜感激!这是到目前为止,我已经得到了代码:
from suffix_tree import GeneralisedSuffixTree
from itertools import combinations
import glob, hashlib, os
alist = open('tmp.adjlist', 'w')
def read_f(f):
f = open(f, "r")
s = str(f.readlines())
f.close()
return s
def read_gs(a,b):
s1 = read_f(a)
s2 = read_f(b)
print str(a) + ":" + str(hashlib.md5(s1).hexdigest()) + " --- " + str(b) + ":" + str(hashlib.md5(s2).hexdigest())
return [s1,s2]
def build_tree(s):
hlist = []
stree = GeneralisedSuffixTree(s)
for shared in stree.sharedSubstrings(13):
for seq,start,stop in shared:
hlist.append(hashlib.md5(stree.sequences[seq]).hexdigest())
hlist = list(set(hlist))
for h in hlist:
alist.write(str(h) + " ")
alist.write('\n')
glist = []
for g in glob.glob("*.g"):
glist.append(g)
for a,b in list(combinations(glist, 2)):
s = read_gs(a,b)
build_tree(s)
alist.close()
os.system("uniq tmp.adjlist network.adjlist && rm tmp.adjlist")
更新#1
下面是更新后的代码。我添加了Pyrce提出的建议。然而,在jogojapan发现了C代码中的内存泄漏之后,鉴于它超出了我的专业知识范围,我最终采用了一种更慢的方法。如果有人对这方面有所了解,我会很好奇如何修改C代码来修复内存泄漏或释放函数,因为我认为Python的C后缀树绑定非常有价值。可能需要几天的时间才能通过此脚本运行数据而无需后缀树,因此我绝对乐于看到任何人是否有创意修补程序!
from itertools import combinations
import glob, hashlib, os
def read_f(f):
with open(f, "r") as openf:
s = str(openf.readlines())
return s
def read_gs(a,b):
s1 = read_f(a)
s2 = read_f(b)
print str(a) + ":" + str(hashlib.md5(s1).hexdigest()) + " --- " + str(b) + ":" + str(hashlib.md5(s2).hexdigest())
return [s1,s2]
def lcs(S1, S2):
M = [[0]*(1+len(S2)) for i in xrange(1+len(S1))]
longest, x_longest = 0, 0
for x in xrange(1,1+len(S1)):
for y in xrange(1,1+len(S2)):
if S1[x-1] == S2[y-1]:
M[x][y] = M[x-1][y-1] + 1
if M[x][y]>longest:
longest = M[x][y]
x_longest = x
else:
M[x][y] = 0
return S1[x_longest-longest: x_longest]
glist = glob.glob("*.g")
for a,b in combinations(glist, 2):
s = read_gs(a,b)
p = lcs(s[0],s[1])
if p != "" and len(p) >= 13:
with open("tmp.adjlist", "a") as openf:
openf.write(hashlib.md5(s[1]).hexdigest() + " " + hashlib.md5(s[0]).hexdigest() + "\n")
os.system("uniq tmp.adjlist network.adjlist && rm tmp.adjlist")