Q
谷歌爬虫时间限制
0
A
回答
0
不要这样想,但Googlebot便相当频繁地重新读取您的robots.txt,所以我不知道它是否会,如果你在一个替代的robots.txt在这些时间交换,例如工作用脚本?
0
您可以建议Googlebots更喜欢较慢的抓取速度(如果您的网站的抓取速度快于最低速率),但这种情况会在90天后生效(请参阅http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=48620)。
如由谷歌缓存,所以不允许爬行可能导致不被抓取远远长于预期该网站更改的robots.txt可能是有问题的。
谷歌有一个以上的机器人类型,这样你可以有选择性在该网站的部分适合他们每个人的抓取,使用robots.txt因为它的目标。见http://www.google.com/support/webmasters/bin/answer.py?answer=40360。
2
您可以使用XML sitemap给予有关适当的抓取频率提示,但它只是一个提示,并要求特定的日子是不可能的。
相关问题
- 1. 自动登录谷歌网页爬虫
- 2. 谷歌爬虫和新闻股票
- 3. .htaccess和谷歌爬虫错误
- 4. 谷歌爬虫怎么看jQuery的链接重定向
- 5. 用于检索谷歌搜索结果的Java Web爬虫
- 6. 谷歌爬虫发现robots.txt,但无法下载
- 7. 困惑 - html5历史api和谷歌爬虫?
- 8. 如何使用htaccess检测谷歌,bing,yahoo爬虫
- 9. Appengine Apps VS谷歌机器人网络爬虫
- 10. 谷歌爬行AJAX
- 11. 为什么谷歌停止爬行后限制
- 12. 临时阻止谷歌爬虫,它会阻止未来的索引?
- 13. Python爬虫 - html.fromstring
- 14. 爬虫实例
- 15. 网络爬虫
- 16. 谷歌索引我的测试文件夹在我的网站:(我如何限制网络爬虫!
- 17. Python简单的网络爬虫错误(无限循环爬行)
- 18. 谷歌爬行的JavaScript?
- 19. 浏览器限制是否影响网络爬虫?
- 20. 多线程网络爬虫线程限制
- 21. 限制从网络爬虫提取的行
- 22. 开源C++爬虫?
- 23. php爬虫检测
- 24. 重定向爬虫
- 25. PHP网络爬虫
- 26. java网络爬虫
- 27. 爬虫vs刮板
- 28. Python网络爬虫
- 29. 制作网络爬虫/蜘蛛
- 30. 谷歌分析API限制
这里的交换替代,你指的开启和关闭的Googlebot取决于一天? – pang 2009-07-07 08:21:15