我有一个每三分钟运行一次的cron作业,它会从远程API抽取一些数据,然后将其存储在本地数据存储中。但是,这会在数据存储放置操作中占用大量的CPU时间。我怀疑我可能做一些非常愚蠢的,可优化很多:如何最大限度地减少数据存储使用的CPU时间
result = urllib2.urlopen(url).read()
foos = json.loads(result)['foo']
bars = json.loads(result)['bar']
models = []
for foo in foos:
d = FooContainer()
d.Property = foo.Value #in real code, this is setting a load of values based off foo
models.append(d)
for bar in bars:
d = BarContainer()
d.Property = bar.Value #in real code, this is setting a load of properties based off bar
models.append(d)
db.put(models)
正如你所看到的,我存储每一块回来在我的本地数据表的新“行”的数据。是否有一些技术可以用来减少此cron作业使用的大量数据存储CPU时间?
您要保存多少个实体? – systempuntoout 2011-05-17 12:13:23
最新工作保存了217个小时和137个小节。大多数工作将大致相同 – Martin 2011-05-17 12:24:53