2013-10-22 50 views

回答

1

只是一个正常的Scrapy运行不能做到这一点,除非你禁用愚蠢过滤器和下载一个页面重新请求同一页面。这是一个hacky解决方案,但从技术上说它会工作。

在循环中运行的Cronjob或Bash脚本可以做到这一点。

+0

因此无法检查抓取工具是否已完成并再次开始批处理?禁用愚蠢过滤器将工作,但如何重新请求相同的页面? – user2908623

+0

如果我将唯一= False添加到我的规则中,该怎么办? – user2908623

+0

或者如何将DUPEFILTER_CLASS ='scrapy.dupefilter.BaseDupeFilter'添加到settings.py? – user2908623