我为使用php/Mysql的客户端构建了RSS,Twitter和其他内容聚合器。它通常涉及一个cron作业,一些feed解析并将数据插入到数据库中以供存储和稍后重新发布,或删除或存档等。没有什么突破性的。内容聚合器服务策略
但是现在我的任务是为公众构建一个聚合器服务。我想这需要迅速扩展,因为每个有权访问该服务的人都可以添加几十个甚至几百个源数据源。在几个月内,我们可能会定期解析1000年的饲料,一年之内可能会分解1000次,或者更多的运气。
我猜最终的模型是类似谷歌读者的东西。
那么,这是什么策略?多个重叠的cron,持续运行和阅读提要并连接到API以提取内容?我应该计划运行Elastic Cloud的多个实例还是需要增长?
简短的回答是:队列 – zerkms 2011-12-15 22:02:43