2014-12-03 182 views
0

我只是在用scrapy做一个项目。什么是start_urls的最大尺寸

我定义我的start_urls如下:

start_urls = [] 
    for i in (1,10): 
      for j in (1,10): 
        start_urls.append(base_url + '/' + str(i) + '/' + str(j)) 

但由于某些原因,scrapy只挑选了4链接抓取,而不是所有100链接。

在这个例子中

我只爬: base_urls/1/1 base_urls/1/10 base_urls/10/1 base_urls/10/10

这是为什么? scrapy中的start_urls有限制吗?

+0

不存在这样的限制;我会说这个答案在统计中。 – nramirezuy 2014-12-03 18:24:56

+0

@nramirezuy我刚刚编辑了我的问题队友,会有帮助吗? – nafas 2014-12-03 18:35:04

回答

1

不是scrapy的问题。
(1, 10) in Python表示具有2个元件110的元组。您可能需要使用range(1, 10)

另外如果你想100个链接,使用range(10)(给人01,...,9) 或range(1, 11)(给人12,...,10

+0

哈哈队友,谢谢一拳,才开始cracking py蟒蛇......我现在觉得很蠢:D – nafas 2014-12-03 18:40:22

+0

好抓,我以为这是翻译上丢失的东西。 – nramirezuy 2014-12-03 18:46:44