1
当我的Scrapy爬虫完成后,我想再次自动启动相同的爬虫。 这可以通过Scrapy函数来完成,还是必须使用Cronjob例如crontab的?Scrapy重新启动爬虫当爬行完成
当我的Scrapy爬虫完成后,我想再次自动启动相同的爬虫。 这可以通过Scrapy函数来完成,还是必须使用Cronjob例如crontab的?Scrapy重新启动爬虫当爬行完成
只是一个正常的Scrapy运行不能做到这一点,除非你禁用愚蠢过滤器和下载一个页面重新请求同一页面。这是一个hacky解决方案,但从技术上说它会工作。
在循环中运行的Cronjob或Bash脚本可以做到这一点。
因此无法检查抓取工具是否已完成并再次开始批处理?禁用愚蠢过滤器将工作,但如何重新请求相同的页面? – user2908623
如果我将唯一= False添加到我的规则中,该怎么办? – user2908623
或者如何将DUPEFILTER_CLASS ='scrapy.dupefilter.BaseDupeFilter'添加到settings.py? – user2908623